Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
_Лекции по теории инф.doc
Скачиваний:
4
Добавлен:
12.11.2018
Размер:
452.61 Кб
Скачать

Всероссийский Заочный Финансово-Экономический Институт

Волгоградский филиал

Кафедра Прикладной информатики

ИНФОРМАТИКА

Лекции

Понятие и задачи информатики

к.т.н., доц. каф. Прикладная информатика

Овчаров С.А.

Волгоград 2010 г.

Оглавление

1. Определение понятия «информация». Методы оценки её количества 3

2. Система кодирования информации 4

3. Кодирование текстовой информации 5

4. Кодирование графической информации 6

5. Кодирование звуковой информации 7

6. Режимы и методы передачи информации 8

7. Возникновение компьютеров и компьютерных технологий 9

8. Классификация современных вычислительных систем 10

9. Структура современных вычислительных систем 11

10. Память персонального компьютера (ПК) 13

11. Базовая система ввода-вывода (BIOS). Понятие CMOS RAM 14

12. Модульный принцип построения ЭВМ 15

13. Принцип открытой архитектуры 15

14. Системное программное обеспечение ЭВМ 16

15. Операционные системы 17

16. Системы программирования 18

11 классификация языков программирования высокого уровня 19

17. Процедурно-ориентированные языки программирования 21

18. Проблемно-ориентированные и объектно-ориентированные языки 22

19. Прикладное программное обеспечение 23

20. Понятие вычислительных сетей. Локальные вычислительные сети 24

21. Одноранговые сети и сети с выделенным сервером 25

22. Топология локальных вычислительных сетей 26

23. Среда передачи сигналов между компьютерами. Технологии передачи данных в локальных вычислительных сетях 27

24. Стандартные протоколы передачи данных по сети 29

25. Единицы передачи данных и методы доступа в локальных сетях 30

26. Коммуникационное оборудование 33

27. Сетевые операционные системы 34

28. Семейство операционных систем UNIX 35

29. Операционная система LINUX 36

30. Семейство сетевых операционных систем фирмы «NOVELL» 37

31. Семейство сетевых операционных систем корпорации «Microsoft» 38

1. Определение понятия «информация». Методы оценки её количества

Понятие «информация» было введено К. Шенноном в середине ХХ в.вузком техническом смысле применительно к его теории связи, которая в дальнейшем получила название теории информации. В современном мире термин «информация» получил гораздо более глубокий смысл. Однако единственного определения термина «ин- |формация» не существует. Информация — это любые новые сведения о лицах, предметах, фактах, явлениях, событиях и процессах независимо от формы их представления. Характерным свойством информации является ее двойственность: на свойства информации влияют как свойства данных, составляющих ее содержательную часть, так и свойства методов, взаимодействующих с данными входе информационного процесса. По окончании процесса свойства информации переносятся на свойства новых данных.

Помимо двойственности, информации присущи следующие свойства:I

  1. Объективность — более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент; .

  2. Полнота информации — достаточность данных для принятия решений или для создания новых данных на основе имеющихся;

  3. Достоверность — чем более четким является полезный зарегистрированный сигнал (или чем менее четким является посторонний зарегистрированный сигнал или шум), тем выше достоверность информации;

  4. Адекватность информации — степень соответствия информации реальному объективному состоянию дела;

  5. Доступность информации — мера возможности получить ту или иную информацию;

  6. Актуальность информации — степень соответствия информации текущему моменту времени.

Существуют четыре метода оценки количества информации:

  • Статистический подход, основная идея которого заключается в том, что количество информации следует рассматривать как меру ' уменьшения неопределенности о состоянии системы или энтропии системы;

  • Семантический подход, основанный на измерении смыслового содержания информации. В рамках этого подхода существует несколько направлений. Например, О. X. Шнейдер определял количество информации с помощью тезаурусной меры. Для того чтобы понять и использовать полученную информацию, человек должен обладать определенным запасом знаний, т.е. иметь определенный тезаурус. Поэтому одинаковое содержание информации для различных пользователей будет представлять разную ценность;

  • Прагматический подход, определяющий количество информации как меру полезности информации для достижения пользователем поставленной цели;

  • Структурный подход, связанный с задачами реорганизации, хранения и извлечении информации. При этом подходе учитываются только физическая и логическая структуры информации.

2. Система кодирования информации

Кодирование предназначено для унификации формы представления данных, относящихся к различным типам, с целью автоматизации работы с информацией.

Кодированием называется выражение данных одного типа через данные другого типа. Например, естественные человеческие языки можно рассматривать как системы кодирования понятий для выражения мыслей посредством речи. Также и азбуки являются системами кодирования компонентов языка с помощью графических символов.

Система кодирования информации, применяемая в вычислительной технике, называется двоичным кодированием. В ее основе лежит представление данных через последовательность двух знаков: 0 и 1. Эти знаки называют двоичными цифрами (binary digit), или сокращенно bit (бит). С помощью одного бита могут быть закодированы два понятия: 0 или 1 (да или нет, истина или ложь и т.п.). С помощью двух бит можно выразить четыре различных понятия. Тремя битами можно закодировать восемь различных значений.

Наименьшей единицей кодирования информации в вычислительной технике после бита является байт. Он связан с битом следующим соотношением; 1 байт « 8 бит - 1 символ.

Как правило, одним байтом кодируется один символ текстовой информации. Поэтому для текстовых документов размер в байтах соответствует лексическому объему в символах.

Более крупной единицей кодирования информации является килобайт, который связан с байтом следующим соотношением: 1 Кб = 1024байт.

Другие, более крупные, единицы кодирования информации образуются с помощью добавления префиксов мега — (Мб), гига — (Гб), тера — (Тб).

1 Мб =1048580 байт.

1Гб = 10737740000 байт.

1Тб = 1024 Гб.

Для того чтобы закодировать двоичным кодом целое число, необходимо взять целое число и делить его пополам до тех пор, пока частное не будет равно единице. Совокупность остатков от каждого деления, записанная справа налево вместе с последним частным, и будет являться двоичным аналогом десятичного числа.

Для кодирования целых чисел от 0 до 255 достаточно иметь 8 разрядов двоичного кода (8 бит). С помощью 16 бит можно закодировать целые числа от 0 до 65535, а с помощью 24 бит—более 16,5 млн. различных значений.

Для кодирования действительных чисел применяется 80-разрядное кодирование. При этом число предварительно преобразовывают в нормализованную форму, например:

2,1427926 = 0,21427926 х 101;

500 000 = 0,5 х 106.

Первая часть закодированного числа называется мантиссой, а вторая часть — характеристикой. Большая часть из 80 бит отводится для хранения мантиссы, и некоторое фиксированное количество разрядов отводится для хранения характеристики.