- •Основы теории информации
- •1. Понятие информации, виды информации. Свойства информации.
- •2. Способы измерения информации. Вероятностный подход к измерению дискретной и непрерывной информации. Семантическая информация.
- •3 Способы кодирования информации: символьной, числовой, графической, звуковой, видео.
- •4. Системы счисления: двоичная, десятичная, восьмеричная и т.Д
- •5. Сжатие информации. Теорема о сжатии и передаче данных.
- •Операционные системы и среды
- •6. Назначение, состав и функции операционных систем (ос). Основные классификационные признаки операционных систем.
- •7. Организация вычислительного процесса. Концепция процессов и потоков.
- •8. Управление памятью: организация памяти, функции ос по управлению памятью
- •9. Обслуживание ввода-вывода: устройства ввода-вывода, назначение и задачи подсистемы ввода-вывода.
- •10. Сетевые операционные системы, структура сетевой операционной системы. Требования, предъявляемые к сетевым операционным системам.
- •Требования к сетевым операционным системам.
- •11. Классификация угроз безопасности информационных систем. Базовые технологии безопасности.
- •Технические средства информатизации
- •12. Архитектурные свойства эвм. Назначение микропроцессора и оперативной памяти как основных блоков эвм.
- •13. Назначение и устройство системной шины.
- •14. Устройство оперативной памяти. Основные отличия между динамической и статической оперативной памятью.
- •15. Физические основы машинной графики.
- •16. Основные принципы работы и типы видеомониторов
- •17. Понятие об алгоритмическом языке. Логические языки. Языки низкого и высокого уровня. Компилируемые и интерпретируемые языки. Функциональные языки.
- •18. Понятие алгоритма, основные свойства, способы записи алгоритма.
- •19. Структурные части алгоритма. Линейная часть, разветвление и цикл.
- •20. Стандартные алгоритмы. Действия с целыми числами. Суммирование и умножение. Вычисление многочлена по схеме Горнера.
- •21. Булева алгебра. Переменная логического типа. Операции с логической переменной.
- •Базы данных
- •22. Системы управления базами данных как средство создания баз данных и обработки информации. Классификация систем управления базами данных по модели данных.
- •23. Этапы проектирования баз данных. Инфологическое моделирование. Даталогическое моделирование. Физическое проектирование баз данных.
- •24. Язык структурированных запросов sql: история развития языка sql, основные категории команд языка sql, типы данных.
- •25. Проектирование баз данных на основе принципов нормализации: нормальные формы 1нф, 2нф, 3нф.
4. Системы счисления: двоичная, десятичная, восьмеричная и т.Д
Непозиционная система счисления - это система счисления, в которой значение цифры не изменяется в зависимости от ее расположения.Примером непозиционной системы счисления служит римская система, в которой вместо цифр используются латинские буквы.
Например: Число 242 можно записать ССXLII (т.е. 100+100+(50-10) +1+1).
Число 96 запишем XCVI=(-10+100)+(5+1).
Значение 1=I в данном случае не изменяется от ее местоположения.
Cоответствие римской и арабской системы записи
I V X L C D M
1 5 10 50 100 500 1000
Позиционная систе́ма счисле́ния (позиционная нумерация) — система счисления, в которой значение каждого числового знака (цифры) в записи числа зависит от его позиции (разряда).
Перевод из двоичной системы в 8- и 16-ричную и на оборот осуществляется с помощью таблицы
число 1100,0112 будет выглядеть как 14,38 или C,616.
Перевод в десятичную систему счисления
Например:
1011002 =
= 1 · 25 + 0 · 24 + 1 · 23 + 1 · 22 + 0 · 21 + 0 · 20 =
= 1 · 32 + 0 · 16 + 1 · 8 + 1 · 4 + 0 · 2 + 0 · 1 =
= 32 + 8 + 4 + 0 = 4410
5. Сжатие информации. Теорема о сжатии и передаче данных.
Сжатие информации - это процесс преобразования информации, хранящейся в файле, к виду, при котором уменьшается избыточность в ее представлении и соответственно требуется меньший объем памяти для хранения.
Сжатие информации в файлах производится за счет устранения избыточности различными способами, например за счет упрощения кодов, исключения из них постоянных битов или представления повторяющихся символов или повторяющейся последовательности символов в виде коэффициента повторения и соответствующих символов. Применяются различные алгоритмы подобного сжатия информации.
В теории информатики Теорема Шеннона об источнике шифрования (или теорема бесшумного шифрования) устанавливает предел максимального сжатия данных и числовое значение энтропии Шеннона. Теорема Шеннона об источнике шифрования показывает, что (когда в потоке независимо и одинаково распределенных (НОР) случайных переменных данные стремятся к бесконечности) невозможно сжать данные настолько, что оценка кода (среднее число бит на символ) меньше чем энтропия Шеннона исходных данных, без потери точности информации. Тем не менее можно получить код, близкий к энтропии Шеннона без значительных потерь.
Теорема об источнике шифрования для кодов символов приводит верхнюю и нижнюю границу к минимально возможной длине зашифрованных слов как функция энтропии от входного слова (которое представлено как случайная переменная) и от размера требуемой азбуки.
Теорема Шеннона — Хартли
В данной теореме определено, что достичь максимальной скорости (бит/с) можно путем увеличения полосы пропускания и мощности сигнала и, в то же время, уменьшения шума.
Теорема Шеннона — Хартли в теории информации — применение теоремы кодирования канала с шумом к архетипичному случаю непрерывного временно́го аналогового канала коммуникаций, искажённого гауссовским шумом. Теорема устанавливает шенноновскую ёмкость канала, верхнюю границу максимального количества безошибочных цифровых данных (то есть, информации), которое может быть передано по такой связи коммуникации с указанной полосой пропускания в присутствии шумового вмешательства, согласно предположению, что мощность сигнала ограничена, и гауссовский шум характеризуется известной мощностью или мощностью спектральной плотности. Закон назван в честь Клода Шеннона и Ральфа Хартли.