Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ответы на билеты по информатике

.pdf
Скачиваний:
86
Добавлен:
10.02.2015
Размер:
480.33 Кб
Скачать

Вопрос 1

Информатика как наука и вид практической деятельности

Методология информатики как науки: объект, предмет, задачи, методы исследования

Структура теоретического ядра информатики (5 разделов)‏

Определение информатики как науки

Объект изучения: информационные‏процессы‏в‏природе‏и‏обществе Предмет: основные‏свойства‏и‏закономерности‏информационных‏процессов,‏ особенности‏проявления‏информационный‏процессов‏в‏информационных‏средах‏ различной‏среды‏и‏методы‏и‏средства‏автоматизации‏информационных‏процессов. Задачи: разработка‏формализованных‏информационных‏моделей‏ информационных‏процессов‏с‏помощью‏математики,‏как‏языка‏всех‏наук,‏ разработка‏информационных‏технологий‏переработки‏информации‏для‏различных‏ сфер‏человеческой‏деятельности.

Методы исследования: системно-информационный‏анализ,‏информационное‏ моделирование‏и‏вычислительный‏эксперимент.‏

1)Теоретическая‏информатика‏занимается‏разработкой‏математических‏ моделей‏информационных‏процессов.‏В‏неѐ‏входят‏теория‏информатики,‏

теория‏кодирования,‏теория‏алгоритмов‏и‏теория‏автоматов.‏

1)Вычислительная‏техника‏– разработка‏общих‏принципов‏построения‏ вычислительных‏систем.

2)Программирование‏– изучение‏способов‏составления,‏проверки‏и‏ улучшения‏программ‏для‏ЭВМ.

3)Информационные‏системы‏– разработка‏систем‏для‏автоматизации‏ информационных‏процессов‏с‏использованием‏вычислительной‏техники‏и‏ компьютерных‏систем.‏

4)искусственный‏интеллект‏– разработка‏компьютерных‏программ.‏

Информатика‏– фундаментальная‏естественная‏наука,‏изучающая‏общие‏ свойства‏информации,‏процессы,‏методы‏и‏средства‏еѐ‏обработки‏(сбор,‏ хранение,‏перемещение,‏выдача).‏

Вопрос 2

Основные понятия информатики: информация, информационный процесс

Философское определение информации (разнообразие, отражение)

Свойства информации (запоминаемость, передаваемость и т.д.)

Понятие информационного процесса

Базовые информационные процессы (в чем их суть)

Фил‏определение.‏‏Информация‏– это‏отраженное‏разнообразие‏заключенного‏в‏

структуре‏объекта‏(1937г.)‏Информация‏проявляется‏тогда,‏когда‏хотя‏бы‏«2‏элемента»‏в‏ совокупности‏различаются.‏

Отражение‏– свойство‏присущее‏любому‏математическому‏объекту‏в‏результате‏ взаимодействия‏воспроизводить‏и‏сохранять‏в‏своей‏структуре‏свойства‏и‏структуру‏других‏ систем.‏ Воспроизведение‏в‏своей‏структуре‏структуры и‏свойств‏другой‏системы‏(то‏есть‏ разнообразие)‏и‏есть‏передача‏информации.

Свойства‏ информации:запоминаемость,передаваемость,воспроизводимость,преобразуемость, стираемость.

1)Запоминаемость‏– одно‏из‏самых‏важнейших‏свойств.‏Именно‏с‏запоминаемой‏ (микроскопической)‏информацией‏мы‏имеем‏дело‏в‏реальной‏практике.‏

2)Передаваемость‏информации‏с‏помощью‏кашалов‏связи‏хорошо‏исследована‏в‏рамках‏ теории‏Шеннона.‏У‏данном‏случае‏имеется‏ввиду‏несколько‏иной‏аспект‏– способность‏ информации‏к‏копированию.

3)Воспроизводимость‏информации‏‏тесно‏связана‏с‏еѐ‏передаваемостью‏и‏не‏является‏еѐ‏ независимым‏базовым‏свойством.‏Воспроизводимость‏характеризует‏неиссякаемость‏и‏ неистощимость‏информации,‏то‏есть‏что‏при‏копировании‏информация‏остается‏ тождественной‏самой‏себе.‏

4)Преобразуемость‏– фундаментальное‏свойство‏информации.‏Оно‏означает,‏что‏ информация‏может‏менять‏способ‏и‏форму‏своего‏существования.‏Копируемость‏есть‏ разновидность‏преобразования‏информации,‏при‏котором‏ѐ‏количество‏не‏меняется.‏В‏ общем‏случае‏количество‏информации‏в‏процессах‏преобразования‏меняется,‏но‏ возрастать‏не‏может.‏‏‏‏‏‏‏‏‏‏‏‏

5)Свойство‏стираемости‏информации‏также‏не‏является‏независимым.‏Оно‏связано‏с‏таким‏ преобразованием‏информации‏(передачей),‏при‏котором‏еѐ‏количество‏уменьшается‏и‏ становится‏равным‏нулю.‏

Процесс‏– смена‏состояний‏объектов‏во‏времени.

Информационный‏процесс‏– это‏процесс‏преобразования‏информации,‏в‏результате‏которого‏ меняется‏смысл‏или‏ценность.‏

Базовые информационные процессы (в чем их суть)

Восприятие,‏передача,‏хранение, обработка.

Вопрос 3

Измерение информации: вероятностный подход

зависимость количества информации в сообщении от вероятности получения сообщения (формула, пример задачи)‏

формула Хартли (в каких случаях используется, пример задачи)‏

определение бита с точки зрения вероятностного подхода

среднее количество информации, приходящееся на одно из множества сообщений. Энтропия системы. Формула Шеннона (пример задачи)‏

Связь информации и энтропии (формула, пример)‏

В‏математической‏теории‏информации‏исходят‏из‏того,‏что‏в‏некотором‏сообщение‏Xt количество‏информации‏L (xt)‏зависит‏не‏от‏еѐ‏конкретного‏содержания,‏степени‏важности‏и‏ т.д.,‏а‏от‏вероятности‏получения‏этого‏сообщения‏P (xt).

Вероятность‏события‏А‏равно‏относительно‏‏числа‏исходов,‏благоприятствующих‏событию‏ А(m)‏к‏числу‏всех‏равновозможных‏исходов‏( ). Сумма‏вероятности‏всех‏возможных‏исходов‏опыта‏равна‏1.

Чем‏меньше‏вероятность‏получить‏сообщение,‏тем‏больше‏информации‏содержится‏в‏

нем.‏ Если‏все‏сообщения‏от‏данного‏источника‏поступают‏с‏одинаковой‏вероятностью,‏то‏

вероятность‏одного‏из‏N равновероятных‏событий, а‏количество‏информации‏в‏этом‏сообщении‏ определяется‏по‏формуле‏‏:‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏

Формула‏Хартли.‏(1928г).‏Зависимость‏количества‏информации‏в‏сообщении‏от‏количества‏ равновероятных‏сообщения.

1‏бит‏– это‏количество‏информации,‏получаемое‏при‏получении‏одного‏из‏двух‏

равновероятных‏сообщений.‏(

)

В‏теории‏информации‏чаще‏всего‏необходимо‏знать‏не‏количество‏информации,‏

содержащееся‏в‏отдельном‏сообщении,‏а‏среднее‏количество‏информации‏на‏одно‏из‏множества‏ передаваемых‏сообщений,‏создаваемых‏системой‏(источником‏сообщений),‏т.е.‏энтропию‏ системы.‏H(x) – энтропия‏системы.

Формула‏Шеннона ( )

N – количество‏разных‏сообщений,‏которые‏может‏генерировать‏система. Pi – вероятность‏появления‏некоторого‏сообщения..

Энтропия‏– численная‏мера‏неопределенности‏наших‏знаний‏о‏состоянии‏некоторой‏системы‏ (источника‏сообщений).

Количество‏информации‏(I),‏полученное‏из‏сообщения‏о‏состоянии‏системы,‏равно‏ разности‏неопределенностей‏наших‏знаний‏о‏состоянии‏системы,‏изменившихся‏«до»‏и‏ «после»‏получения‏сообщения.‏( )

Если‏сообщение‏полностью‏снимает‏неопределенность‏относительно‏состояния‏системы,‏то‏ количество‏информации‏в‏этом‏сообщении‏численно‏равно‏энтропии‏системы‏до‏получения‏ сообщения.‏ Пример. Сколько‏информации‏содержится‏в‏сообщении‏о‏том,‏что‏на‏игральной‏кости‏

выпало‏четное‏число‏очков? Решение.‏‏

Вопрос 4.

какой принимается вероятность исходов опыта с системой

от чего зависит количество информации об одном исходе

определение количества информации по объемному подходу (формулы, пример)

определение бита по объемному подходу

Объѐмный‏подход‏используется‏для‏измерения‏количества информации‏в‏тексте,‏ представленном‏в‏виде‏последовательности‏символов‏некоторого‏алфавита.

Количество‏символов‏в‏алфавите‏называется‏мощностью‏алфавита. Предполагается,‏что‏все‏символы‏в‏тексте‏встречаются‏с‏равной‏вероятностью.‏

Определение‏количества‏информации

1)Вычисляют‏количество‏информации,‏которая‏несет‏каждый‏символ‏текста‏ (Информационный‏вес‏символа)‏i=

2)Общее‏количество‏информации‏(информационный‏объѐм‏тексте)‏определяется‏ как‏сумма‏информационных‏весов‏всех‏символов,‏составляющих‏текст.‏

I=K*i,‏где‏K – количество‏символов‏в‏тексте,‏I – информационный‏вес,‏I – объѐм. Пример:

C позиции‏объѐмного‏подхода‏к‏измерению‏информации‏1‏бит‏– это‏информационный‏ вес‏символа‏из‏двоичного‏алфавита.‏

Вопрос 5

Представление текста в памяти ЭВМ

кодировочные таблицы ASCII и Unicode

структура таблиц ASCII и Unicode

информационный вес символа в ASCII и Unicode

ввод символов с клавиатуры

Язык‏текстового‏представления‏опирается‏на‏алфавит‏– упорядоченный‏набор‏допустимых‏ символов. Для‏компьютерного‏представления‏текста‏требуется‏взаимно-однозначно‏сопоставить‏буквы‏ алфавита‏и‏двоичные‏коды.‏Таблица‏кодировки‏– таблица,‏содержащая‏упорядоченный‏ перечень‏символов,‏в‏соответствии‏с‏которой‏происходит‏преобразование‏символа‏в‏его‏ двоичный‏код‏и‏обратно.‏ Исторически‏первой‏возникла‏кодировочная‏таблица‏ASCII,‏с‏ мощностью‏алфавита‏256‏символов.‏Отсутствие‏единого‏стандарта‏размещения‏‏ кириллических‏символов‏в‏таблице‏ASCII приводит‏к‏проблемам‏с‏кодировками. таблица‏Unicode (1993)‏снижает‏ограничение‏однобайтовых‏таблиц‏– невозможность‏ одновременного‏использования‏нескольких‏языков.‏

Информационный‏вес‏символа‏в‏ASCII – 8‏бит,‏в‏Unicode – 32 бита.

Ввод‏символов‏с‏клавиатуры.

1)Во‏время‏нажатия‏клавиш‏замыкаются‏контакты‏и‏формируется‏скан-код‏(номер‏ клавиши),‏который‏предается‏на‏контроллер‏клавиатуры.‏

2)Контроллер‏ставит‏в‏соответствие‏скан-код‏и‏код‏из‏установленной‏кодировочной‏ таблица,‏с‏помощью‏специальной‏программы.‏

3)Нажатие‏буквенноцифровой‏клавиши‏посылает‏сигнал‏на‏видеокарту,‏из‏ПЗУ‏ (постоянное‏запоминающее‏устройство)‏которой‏выбирается‏код‏знакогенерации‏для‏ отображения‏символа‏на‏экран.

Вопрос 6

Ввод, оформление и структурирование текста

-Правила компьютерного набора текста -Виды программ для набора текста -Шрифт, гарнитура, стиль, виды шрифтов -Структурирование текста

1.‏Все‏слова‏разделяются‏одним‏пробелом!

2.‏Знаки‏препинания‏примыкают‏к‏предыдущему‏слову. 3.‏Скобки‏и‏кавычки‏всех‏видов‏примыкают‏к‏первому‏и‏последнему‏слову,‏заключенным‏в‏них. 4.‏Текст‏разрывается‏только‏в‏конце‏абзаца. 5.Отступы‏в‏начале‏абзаца‏делаются‏с‏помощью‏линеек,‏а‏не‏пробелами‏.‏

 

Программы‏по‏набору‏текста‏разделяются‏на:

1.

Текстовые‏редакторы‏– программы,‏позволяющие‏набрать‏текст,‏но‏не‏оформить‏его‏для‏

 

печати‏(Блокнот,‏Notepad++, PSPad)

2.

Текстовые‏процессоры‏– сложные‏программные‏комплексы,‏позволяющие‏выполнить‏

 

оформление‏текста‏(форматирование),‏сопроводить‏его‏графическими‏материалами‏и‏т.д.‏

 

(Word, Open Office, Writer)

 

Шрифт‏– графический‏рисунок‏букв,‏цифр‏и‏символов,‏обладающий‏общими‏для‏всех‏

символов‏стилистическими‏особенностями‏изображения.‏Основные‏параметры:‏ Кегель‏– размер‏шрифта,‏Начертание‏– параметр‏плотности‏шрифта‏(светлый,‏ полужирный,‏жирный),‏Гарнитура‏– совокупность‏всех‏возможных‏размеров‏и‏ вариантов‏написания‏шрифтов‏(Arial, Verdana – с‏засечками, Times New Roman – без‏засечек).‏Засечки‏– небольшие‏элементы‏на‏концах‏штрихов‏букв.‏

Виды‏шрифтов:

1.Рубленные‏шрифты‏(преимущественно‏угловое‏соединение‏штрихов,‏без‏засечек,‏лучше‏ воспринимается‏с‏экрана)

2.Антиквенный‏шрифт‏(соединение‏между‏штрихами‏сглажены,‏обязательны‏засечки,‏‏ лучше‏воспринимается‏в‏печатных‏текстах)

3.Акцидентные‏(оформительсткие,‏имеют‏декоративные‏элементы,‏при‏большом‏ количестве‏текста‏утомляет‏глаза)

Структурирование‏текста

Абзац‏‏- единица‏простарнственного‏размещения‏текста.

1.Выравнивание‏– правила‏расположения‏букв‏в‏строке‏абзаца.‏

2.Отступы‏– от‏краев‏полосы‏набора.

3.Абзацный‏отступ.

4.Интервалы.

Вопрос 7.

Представление целых чисел в в памяти ЭВМ

виды целых чисел в компьютере

алгоритм получения прямого кода целого числа без знака

алгоритм получения дополнительного кода целого числа со знаком (зачем нужен дополнительный код)

Наибольшую‏последовательность‏бит,‏которую‏процессор‏ЭВМ‏может‏обрабатывать‏как‏единое‏ целое,‏называют‏машинным‏словом.‏Разряды‏в‏машинном‏слове‏нумеруются‏справа‏налево,‏ начиная‏с‏0.

Все‏целые‏числа‏в‏компьютере‏разделяются‏на:

-числа‏без‏знака‏(только‏положительные)

-числа‏со‏знаком‏(+‏и‏-)

0‏в‏старшем‏разряде‏– положительное,‏1‏– отрицательное.‏

Для‏представления‏в‏памяти‏целого‏десятичного‏числа‏без‏знака‏используется‏прямой‏код:

1.Число‏переводится‏в‏двоичную‏систему.

2.Двоичную‏запись‏слева‏дополняют‏таким‏количество‏0,‏сколько‏‏требует‏тип‏данных‏ числа.‏

Пример:

Для‏представления‏в‏компьютере‏целых‏чисел‏со‏знаком‏используют‏дополнительный‏код.‏ Дополнительный‏код‏нужен‏для‏того,‏чтобы‏закодировать‏знак‏«-»‏и‏свести‏процедуру‏ вычитания‏к‏сложению.‏Дополнительный‏код‏целого‏положительного‏числа‏со‏знаком‏ совпадает‏с‏его‏прямым‏кодом.‏

1)Записать‏прямой‏код‏модуля‏числа‏(перевести‏в‏двоичную‏систему)

2)Инвертировать‏его.

3)Полученный‏обратный‏код‏сложить‏с‏1.‏

Пример:

Обратный: если‏число‏положительное,‏то‏просто‏перевести‏его‏код‏в‏десятичную‏систему‏счисления если‏отрицательное,‏необходимо‏выполнить‏следующий‏алгоритм:‏

1)Вычесть‏из‏кода‏1

2)инвертировать‏код

3)перевести‏в‏десятичную‏СС

4)полученное‏число‏записать‏с‏«-»

Вопрос 8 Представление вещественных чисел в памяти ЭВМ

проблема представления вещественных чисел в памяти ЭВМ

нормализованная форма вещественных чисел (как ее получить)

какая информация о вещественном числе хранится в компьютере

структура хранения вещественного числа в памяти ЭВМ

алгоритм получения представления десятичного вещественного числа в

памяти ЭВМ

Вещественные‏числа‏(конечные‏и‏бесконечные‏десятичные‏дроби)‏хранятся‏в‏компьютере в‏ формате‏с‏плавающей‏точкой,‏которая‏опирается‏на‏нормализованную‏форму‏записи‏чисел.‏ Нормализованная‏форма‏записи‏чисел В‏двоичной‏системе:

А=1,М‏*

М‏– мантисса‏(еѐ‏целая‏часть‏=1)

P – порядок,‏записанный‏в‏десятичной‏системе. При‏записи‏нормализованного‏числа‏в‏компьютере‏хранятся‏значение‏знака‏числа,‏мантиссы‏и‏ смещѐнного‏порядка.‏ В‏памяти‏компьютера‏хранится‏не‏само‏значение‏порядка,‏а‏значение‏порядка‏со‏смещением. Порядок‏может‏быть‏со‏знаком‏+‏или‏– Смещѐнный‏порядок‏имеет‏только‏полодительное‏значение смещение‏выбирают‏так,‏чтобы‏минимальному‏значению‏истинного‏порядка‏соответствовал‏0. Для‏записи‏внутреннего‏представления‏вещественного‏числа‏необходимо:

1)Привести‏модуль‏данного‏числа‏в‏двоичную‏систему‏счисления.

2)Нормализовать‏двоичное‏число,‏т.е.‏записать‏в‏виде‏1,М*

3)Прибавить‏к‏порядку‏+‏127‏(для‏single)‏+‏1023‏(для‏Double)‏‏и‏перевести‏‏полученное‏ число‏в‏двоичную‏СС.

4)Учитывая‏знак‏числа,‏выписать‏его‏преставление‏в‏4х‏(8ми)‏байтовом‏машинном‏слове‏ (дополнив‏мантиссу‏необходимым‏количеством‏нулей)

Вопрос 9 Дискретное представление графической информации в памяти ЭВМ

понятие дискретной и неприрывной информации

суть процедур дискретизации и квантования

растровая и векторная дискретизация графических изображений

В‏случае,‏когда‏параметр сигнала‏принимает‏последовательное‏во‏времени‏конечное‏число‏ значений,‏сигнал‏называется‏дискретным.‏Информация,‏передаваемая‏источником,‏в‏этом‏ случае‏называется‏дискретной.(чтение‏книги)‏Если‏же‏источник‏вырабатывает‏непрерывное‏ сообщение,‏соответствующая‏информация‏называется‏непрерывной.(человеческая‏речь) Графическое‏изображение‏– совокупность‏световых‏сигналов‏на‏плоскости. Чтобы‏сохранить‏информацию‏о‏графическом‏изображении,‏его‏подвергают‏дискретизации‏и‏ квантованию.‏При‏дискретизации‏непрерывным‏временным‏или‏пространственным‏ характеристики‏объекта‏ставятся‏в‏соответствие‏‏дискретное‏множество‏элементов. При‏квантовании‏непрерывный‏диапазон‏возможных‏значений‏некоторой‏характеристики‏ элемента‏преобразуется‏в‏конечное‏множество‏чисел.‏Обе‏процедуры приводят‏к‏потери‏части‏ информации.‏

При‏растровой‏дискретизации‏графической‏информации‏на‏изображение‏накладывается‏сетка‏ (растр),‏каждая‏ячейка‏которой‏(пиксель)‏рассматривается‏как‏далее‏неделимый‏фрагмент,‏ определенный‏набором‏атрибутов:‏координатами,‏формой,‏размером‏и‏цветом.‏‏Процедура‏ разбиения‏изображение‏на‏пиксели‏называется‏растеризацией‏или‏оцифровкой‏изображения.‏ Размер‏сетки‏растра,‏задаваемый‏в‏виде‏m*n,‏где‏m – число‏пикселей‏по‏горизонтали,‏n – число‏ пикселей‏по‏вертикали,‏называется‏разрешенной‏способностью‏или‏графическим‏разрешением‏ экрана.‏

Векторная‏дискретизация‏– это‏разбиение‏изображения‏на‏набор‏графических‏примитивов‏ (прямая,‏кривая,‏окружность‏и‏т.д.),‏которые‏описываются‏математическими‏формулами‏с‏ использованием‏системы‏координат.

В‏памяти‏компьютера‏хранят‏числа,‏определенное‏местоположение,‏форму,‏толцину,‏цвет‏ линий.‏Построение‏векторного‏представления‏‏- векторизация‏изображения.

Вопрос 10

Кодирование цвета в памяти ЭВМ

Математическая модель цвета: законы Грассмана

цветовые модели RGB, CMYK, HSB (базовые цвета, цвет какого объекта описывает (отражающего или излучающего))

Связь глубины цвета и количества цветов в изображении

Математический‏аппарат‏трехкомпонентной‏теории‏цвета.‏(законы‏Грассмана)

Закон‏трехмерности:‏с‏помощью‏трех‏выбранных‏линейно‏независимых‏цветов‏можно‏ однозначно‏выразить‏любой‏цвет‏(цвета‏линейно‏независимые,‏если‏никакой‏из‏них‏нельзя‏ получить‏путем‏смешивания‏остальных) Закон‏непрерывности:‏при‏непрерывном‏изменении‏излучении‏цвет‏смешивания‏также‏меняется‏ непрерывно‏(‏к‏любому‏цвету‏можно‏подобрать‏бесконечно‏близкий‏цвет) Закон‏аддитивности:‏все‏цвета‏равноправны.‏Разложение‏цветов‏можно‏выполнить‏к‏любому‏ цвету.‏‏ Законы‏Грассмана‏устанавливают‏общие‏свойства‏математическоц‏модели‏цветов:

1.цвета можно‏рассматривать‏как‏точки‏или‏векторы‏в‏трехмерном‏цветовом‏пространстве

2.абсолютно‏черному‏цвету‏всегда‏соответствует‏точка‏(0;0;0)

3.точки‏пространства,‏соответствующие‏цветам‏видимого‏спектра,‏образуют‏в‏ пространстве‏некоторое‏выпуклое‏тело.

Цветовая модель‏RGB – описание‏цвета‏излучающего‏объекта.

Основные‏цвета:‏красный,‏зелѐный,‏синий.‏(телевизоры,‏мониторы,‏проекторы‏и‏т.д.) Цветовая‏модель‏CMYK – описание‏цвета‏отражающего‏объекта. основные‏цвета:‏голубой,‏пурпурный,‏желтый.‏(на‏бумаге)

Цифровая‏модель‏HSB – модель‏цветовосприятия‏человека.‏В‏этой‏модели‏цвет‏получается‏из‏ спектрального‏добавления‏определенного‏процента‏белой‏и‏черной‏красок.‏

Hue (цветовой‏тон)‏– один‏из‏цветов‏спектрального‏разложения‏цвета

Saturation (насыщенность‏цвета)‏– чистота‏цвета‏(определенный‏%‏добавленной‏к‏цветы‏белок‏ краски)

Brightness (яркость)‏– освещѐнность‏или‏затемненность‏цвета‏(определенный‏%‏добавления‏ черной‏краски)

Глубина‏цвета‏– количество‏бит,‏использующихся‏для‏кодирования‏цвета.‏

N=‏‏‏‏‏‏‏‏‏‏‏‏‏‏‏,‏где N – количество‏цветов,‏i – глубина‏цвета.‏Наиболее‏распространено:‏4,8,16,24‏ бит‏на‏точку.‏