- •2. Понятие информатики и информации. Понятие об информации и её измерение.
- •2.8. Виды и свойства информации.
- •2.9. Мера количества информации. Семантическая, синтаксическая и прагматическая меры. Информационная энтропия. Формула Шеннона
- •2.11. Автоматизированная система управления
- •2.13.Информатика. Задачи информатики. Информация. Характеристики информации.
- •2.14. Безопасность и защита информации
- •2.15. Виды угроз с точки зрения защиты информации
- •2.16. Резервирование информации. Raid – массивы.
- •2.17. Криптографические системы шифрования. Симметричные и ассиметричные методы.
- •2.18. Задачи информатики
- •2.19. Кодирование информации. Представление видео, аудио и текстовой информации. Теорема Котельникова. Ацп и цап. Дискретизация. Квантование. Кодовые страницы.
- •2. Принципы фон Нэймана и архитектура эвм
- •3.История развития вычислительной техники. Поколения эвм.
- •4 Основные устройства компьютера: материнская плата.
- •5.Основные устройства компьютера:процессор
- •6.Основные устройства компьютера: оперативная память
- •7.Основные устройства компьютера: системная шина
- •8. Основные устройства компьютера: устройства ввода- вывода
- •9. Основные устройства компьютера: устройства хранения информации
- •10.Система прерываний эвм
- •11. Информация, её виды и свойства. Непрерывная и дискретная информация. Единицы количества информации: вероятностный и объёмный подходы.
- •12.Представление числовой информации. Позиционные системы счисления и их назначения: десятичная, двоичная, восьмеричная и шестнадцатеричная. Правила перевода чисел из одной системы счисления в другую.
- •Двоичная система счисления
- •13. Двоичная система счисления как базовая система представления и хранения числовой информации в компьютере. Единицы двоичной информации и их назначение: бит, байт, машинное слово.
- •18. Модель открытой системы osi. Семь уровней. Протоколы
- •1.Системное по. Операционные системы и их назначение. Основные функции: управление процессором, памятью, устройствами ввода/вывода, процессами и заданиями пользователя.
- •Функции ос
- •3.Режимы организации вычислительного процесса.
- •5. Инструментальное по. Компиляторы и интерпретаторы языков программирования. Типовая технология создания программы
- •9.Кодирование информации. Префиксный код Хаффмана.
- •2.Концепция типов данных в с. Базовые типы данных. Характеристика типа: множество допустимых значений, формат представления в памяти, размер занимаемой памяти, допустимый набор операций.
- •3.Определение переменных в с. Определение констант. Инициализация переменных.
- •Int k; // это переменная целого типа int
- •4. Ввод и вывод данных. Универсальные функции ввода и ввода.
- •5. Выражения и операции: арифметические, сравнения, логические, поразрядные. Особенности выполнения операций в выражениях. Библиотека математических функций компилятора Borland с.
- •6.Базовые управляющие структуры: следование, ветвление, цикл, вызов подпрограммы. Нисходящее и пошаговое проектирование алгоритма программы.
- •7.Алгоритм линейного поиска значений в одномерном массиве. Поиск с барьером.
- •8. Алгоритм двоичного поиска значения в одномерном массиве.
- •9. Сортировки. Внешние и внутренние. Устойчивые и неустойчивые.
- •10. Основные методы сортировки: метод обмена.
- •11.Основные методы сортировки: метод вставки
- •12.Основные методы сортировки: метод выбора
- •13.Поиск минимального и максимального элементов
- •14. Вставка и удаление элементов
- •15. Файлы произвольного и последовательного доступа. Работа с файлами в с
- •6.Принцип программного управления. Функциональная и структурная организация компьтера.
- •6.1. Органиация открытой компьютерной архитектуры
- •6.2.Схема с общей шиной
- •6.4. Функционирование процессора
- •6.5.Организация оперативной памяти
- •6.7.Контроль оперативной памяти
- •6.9.Прерывание
- •6.13.Описать событие «прерывание выполняется»
- •6.14. Описать событие «прерывание пришло»
- •6.15. Организация внешних устройств
- •6.18.Обмен по запросу
- •6.21.Канальная программа
- •6.23.Организация винчестера
11. Информация, её виды и свойства. Непрерывная и дискретная информация. Единицы количества информации: вероятностный и объёмный подходы.
Основные виды информации по ее форме представления, способам ее кодирования и хранения, что имеет наибольшее значение для информатики
графическая звуковая
текстовая
числовая
видеоинформация
Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.
Свойства информации:
А)Репрезентативность – правильность способа или метода, на базе которого сформулировано исходное понятие; - обоснованность отбора существенных признаков и связей отображаемого явления.
Б)Содержательность – отражает семантическую(смысловую)ёмкость, которая равна отношению количества семантической информации к объёму обрабатываемых данных.
В)Полнота – означает, что информация содержит минимальный, но достаточный для принятия осознанного решения набор показателей.
Г)Доступность – должна обеспечиваться выполнением соответствующих процедур, её получением и преобразованием.
Д)Актуальность – определяется степенью сохранения ценности информации для управления в момент её использования.
Е)Своевременность – означает её поступление не позднее заранее назначенного момента времени, согласованного с моментом решения поставленной задачи.
Ж)Точность – определяется степенью близости полученной информации к реальному описанию какого-либо объекта с необходимой точностью.
З)Достоверность - определяется её свойством отражать реально существующие объекты с необходимой точностью.
И)Устойчивость – отражает её способность реагировать на изменение исходных данных без нарушения необходимой точности.
Непрерывная и дискретная информация.
Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала. В случае когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т.е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае является давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [а, Ь] (см.рис.2). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией).В технике непрерывная информация называется аналоговой, дискретная — цифровой.
Примеры-иллюстрации:
Система целых чисел является дискретной в противоположность системе действительных чисел.
Память компьютера состоит из отдельных ячеек — битов, то есть, она — дискретна. Следовательно, компьютер работает исключительно с дискретной (цифровой) информацией, а непрерывные сигналы, поступающие в компьютер, подвергаются процессу дискретизации, или оцифровке аналогового сигнала.
Единицы количества информации: вероятностный и объёмный подходы.
Объемный - измерение информации в технике (информация как сообщения в форме знаков или сигналов, хранимые, передаваемые и обрабатываемые с помощью технических устройств). В технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов, часто используют простой способ определения количества информации, который может быть назван объемным. Он основан на подсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания. Длина сообщения зависит от числа знаков, употребляемых для записи сообщения. В двоичной системе счисления знаки 0 и 1 будем называть единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов
Вероятностный - получение информации (ее увеличение) одновременно означает увеличение знания, что, в свою очередь, означает уменьшение незнания или информационной неопределенности. За единицу количества информации принимают выбор одного из двух равновероятных сообщений (“да” или “нет”, “1” или “0”). Она также названа бит.
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной .кости, имеющей N граней (наиболее распространенным является случай шестигранной кости: N = 6). Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1,2,... N.Введем в рассмотрение численную величину, измеряющую неопределенность -энтропию (обозначим ее Н). Величины N и Н связаны между собой некоторой функциональной зависимостью:H = log2 N. Это – формула Хартли.