- •Оглавление
- •Тема 1. Теория информации. 5
- •Тема 2. Аппаратное обеспечение. 9
- •Тема 3: Программное обеспечение эвм 22
- •Тема 4. Обработка текстовой информации 29
- •Тема 5. Электронные таблицы 31
- •Тема 6. Системы управления базами данных. 37
- •Тема 7. Представление и обработка чисел в компьютере. 40
- •Тема 8. Автоматизация научных и инженерных расчетов. 42
- •Тема 1. Теория информации.
- •Информатика.
- •Понятие информации. Ее свойства, формы, виды и методы получения.
- •Кодирование информации.
- •Измерение информации – сравнение с эталоном.
- •Мощность алфавита
- •Вероятностный подход.
- •Информация и Энтропия.
- •Единицы измерения
- •Магистрально - модульный принцип устройства компьютера
- •Системный блок
- •Центральный процессор
- •2.5.5. Сопроцессор.
- •2.5.6. Организация памяти компьютера
- •2.6.1. Оперативное запоминающие устройство.
- •Кэш – память
- •Пзу (rom - read only memory – только для чтения.)
- •Долговременные запоминающие устройства (дзу)
- •Устройство ввода
- •2.7.1. Мышь
- •Дигитайзер – графический планшет
- •Плоттер
- •Операционные системы
- •Основные семейства ос
- •3.3.3. Классификация ос
- •Структура и функции ос
- •Файловая система
- •Драйверная система
- •3.6.2 . Алгоритм Хаффмана
- •3.6.3. Алгоритм Лемпеля-Зива
- •4.3 . Задачи обработки текстовой информации.
- •Решение уравнений в Excel
- •Решение оптимизационных задач в Excel.
- •Надстройки excel.
- •Этапы решения оптимизационных задач.
- •Решение оптимизационной задачи.
- •Линейная регрессия в excel.
- •Работа с экспериментальными данными.
- •Тема 6. Системы управления базами данных.
- •Основные понятия теории бд.
- •Модели организации данных
- •Персональные субд
- •7.3. Представление чисел в различных сс
- •7.3.1. Перевод чисел из q-ричной в p-ричную.
- •7.3.2. Перевод чисел между сс 2-8-16
- •8.2. Особенности интерфейса MathCad
- •8.3. Функции в MathCad
- •8.7.3. Построение графика функции в полярных координатах.
- •8.11.2. Кусочно-линейная аппроксимация.
- •9.4. Векторная графика
- •9.4.1. Объекты векторной графики и их характеристики.
- •9.4.2. Способы представления обеъектов.
- •9.5 Фрактальная графика
- •9.6 Трехмерная графика
- •9.7. Цвет. Цветовые схемы.
- •9.8. Форматы графических файлов.
- •Тема 10. Вычислительные сети
- •10.1. Программные и аппаратные компоненты вычислительных сетей.
- •10.2. Коммуникационное оборудование
- •10.2.1. Производительность
- •10.4. Эталонная модель osi
- •10.4.1. Физический уровень:
- •10.12. Основные протоколы:
Измерение информации – сравнение с эталоном.
Т.к. эталона не существует, значит, по правилам измерить нельзя.
Измерение:
Качественно – сравнение свойств.
Количественно – алфавитный – определенное количество информации с помощью определенного количество символов с учетом веса каждого символа.
Мощность алфавита
N – Мощность алфавита (кол-во информации)
i – Вес символа
N=2i Формула Хартли
Один двоичный разряд, используемый для кодирования = 1 бит
I=k*i
k – Количество символов
i – Вес символа
I – количество информации
Задача: ИНФОРМАТИКА 11*6=66 бит
2i=9, i=4, 4*11=44 бита
Русские буквы – 66; знаки – 15; латинский алфавит – 52; цифры – 10; специальные символы – 10; пробел; знаки действий – 11. Итого: 165.
165=2i; i=8; 8*11=88 бит.
Вероятностный подход.
Определяет количество информации через неопределенность знаний с учетом вероятности событий.
Метод двоичного поиска: сообщение, уменьшающее неопределенность в 2 раза = 1 бит информации.
N – Количество равновероятных событий
i – Количество информации, что произошло событие
N=2i
Не равновероятные события:
А – положительные события
М – отрицательные события
Р – вероятность событий
Р=А/М
Формула Шеннона:
i – Количество информации о том, что произошло событие.
2i = 1/Р
Задача: ученик получил 100 оценок: «5»-60, «4»-25, «3»-10, «2»-5. Получить количество информации о получении каждой оценки.
Р5=0,6; Р4=0,25; Р3=0,1; Р2=0,05
2i =0,6 = 1/0,6=10/6=1 2/3; i=1;
2i =100/25=4; i=2:
2i =10; i=4
2i =20; i=5
Чем меньше вероятность, тем больше информации содержится в нем.
Информация и Энтропия.
Энтропия – понятие для определения меры необратимого рассеяния энергии (термодинамика)
Энтропия – мера вероятности макроскопически. (статическая физика).
Чем больше энтропия, тем больше вероятность события.
Все процессы ведут к повышению энтропии.
Термодинамическая Энтропия – функция состояния термодинамических систем.
Математическая энтропия – измерения размеров наборов.
В теории информации мера неопределенности количества опыта, имеющая разные подходы
Min = 0, т.е. определенна.
Информационная энтропия – мера хаотичности.
I=log2 (1/p(i)) – средняя энтропия сообщения.
Это количественно обосновал Л.Н. Бриллюен: Особое внимание уделяет теории информации. Изучал вопросы общности и взаимосвязи понятия энтропии в термодинамике и теории информации. Показал, что получение информации о состоянии физической системы эквивалентно соответствующему уменьшению её энтропии и, в согласии со вторым началом термодинамики, неизбежно сопровождается компенсирующим возрастанием энтропии какой-либо иной системы.
Н+I=1, Н – энтропия, I – информация.
I = Н(до) – Н(после) «уменьшение энтропии»
Единицы измерения
1 бит |
{0;1} |
Бит |
1 байт |
8 бит |
Байт |
1 кб |
1024 байт |
Килобайт |
1 Мб |
1024 кб |
Мегабайт |
1 Гб |
1024 Мб |
Гигабайт |
1 Тб |
1024 Гб |
Терабайт |
1 Пб |
1024 Тб |
Петабайт |
1 Эб |
1024 Пб |
Экзабайт |
1 зоб |
1024 Эб |
Зеттабайт |
1 йб |
1024 зб |
Йоттабайт |
Тема 2. Аппаратное обеспечение.
Архитектура ПК
Архитектура ПК – описание ПК для пользования и программиста.
Принципы фон Неймана.
Автоматическая обработка информации
1945 г. – Джон фон Нейман «EDVAC»
Принципы общего устройства ЭВМ
Принципы произвольного доступа к основной памяти.
T – const (доступа)
Любому устройству в любой момент времени доступна любая ячейка памяти.
Принцип хранимой программы
Программа и данные хранятся в памяти
Принцип программного управления
УУ исполняет программу в памяти, автоматически. Программы исполняются друг за другом.
Эволюция поколения ЭВМ.
Поколение |
Дата |
Пример |
Элементная база |
Быстродействие |
I |
1945 - 1956 |
ЭНИАКС МЭСМ |
Электронная лампа |
103 – 104 оп/сек |
II |
1956 – 1963 |
БЭСМ ТХ-0 |
Транзисторы |
104 – 106 оп/сек |
III |
1964 – 1971 |
ЕС IBM |
Интегральные схемы (ИС) |
105 – 107 оп/сек |
IV |
1972 – до н.в. |
IBM MACINTOSH |
БИС СБИС |
1012 – 1024 оп/сек |
Направление развития:
Миниатюризация
Система иск. Интеллекта
Элементная база неэлектрического происхождения