- •Понятие информации, основные свойства информации.
- •Кодирование информации в пк. Формулы Хартли и Шеннона изменения количества информации. Понятие энтропии.
- •Системы счисления и правила работы с ними. Логические основы работы пк.
- •Принципы фон Неймана построения эвм. Принципы фон Неймана
- •5.Базовая конфигурация пк. Состав системного блока. Состав материнской платы.
- •6.Микропроцессор и его характеристики
- •7.Внутренняя память пк. Виды, назначение.
- •8.Внешняя память пк, виды, назначение
- •9. Периферийные устройства пк. Их виды, назначение.
- •10. Состав программного обеспечения пк
- •Прикладное по
- •11.Назначение, функции и виды операционных систем
- •12. Организация файловой системы пк
- •13. Виды компьютерной графики. Краткая характеристика.
- •14. Сравнительная характеристика векторной и растровой графики:
- •15. Понятие цветовой модели. Характеристика цветовой модели rgb.
- •16. Компьютерные сети, виды, назначение.
- •17. Типовые топологии компьютерных сетей
- •18.Принципы взаимодействия открытых систем
- •19.Адресация в сети Интернет. Протоколы сети.
- •20.Основные службы сети Интернет
- •21.Понятие бд, назначение субд. Модели данных в базе.
- •22.Назначение субд access. Объекты субд и режимы их создания.
- •23.Понятие моделирования, модели. Классификация моделей.
- •24.Этапы исследования компьютерной модели на пк
- •25.Этапы решения задачи на пк. Понятие алгоритма, его свойства.
- •26.Базовые алгоритмические структуры
- •3.Базовая структура повторение
- •27.Виды алгоритмов, их свойства. Способы записи.
- •Способы записи алгоритма
Понятие информации, основные свойства информации.
Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.
Информатика рассматривает информацию как связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Свойства информации:
Репрезентативность информации связана с правильностью ее отбора в соответствии с целью.
Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к ее объему.
Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав показателей.
Доступность информации для восприятия пользователя обеспечивается соответствующими процедурами по ее получению и преобразованию.
Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования.
Своевременность информации означает ее поступление не позже заранее назначенного момента времени.
Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта , процесса, явления и пр.
Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью.
Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности.
Кодирование информации в пк. Формулы Хартли и Шеннона изменения количества информации. Понятие энтропии.
Информация может передаваться в виде сигналов – звуковых, световых, электрических и пр.. Для того, чтобы сохранить информацию, ее надо закодировать. Кодирование – выражение данных одного типа через другие.
В вычислительной технике используется универсальная система кодирования данных двоичным кодом - последовательностью двоичных цифр 0 и 1. Один разряд двоичного кода называется битом (от англ. Binary digit – двоичная цифра). Количество разных символов, которое может быть представлено при двоичном кодировании, зависит от разрядности кода. Один бит выражает два значения. Общую формулу вычисления количества кодируемых значений можно представить: N = 2m где н – предельное число кодируемых значений, м - разрядность кода (количество бит)(пример: 8 = 23 – с помощью 3 битов можно закодировать 8 числовых значений (000, 001, 010, 011, 100, 101, 110, 111) . Для вычисления количества информации в сообщении используется формула Хартли:I = log 2N (I- количество информации, N – возможное количество кодируемых сообщений). Формула Хартли используется для вычисления количества информации, когда все события равновероятны. В случае, когда все элементы (события) не равновероятны, используется формула Шеннона: I = -∑pi log2 pi, (I- количество информации, pi, - вероятность возникновения i-го события). Формула Хартли является частным случаем более общей формулы Шеннона. Энтропия системы - рассматриваться как мера недостающей информации. Энтропия системы Н(х), имеющая N возможных состояний, согласно формуле Шеннона равна: