Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ОТВЕТЫ ПО ИНФ.doc
Скачиваний:
52
Добавлен:
26.09.2019
Размер:
1.4 Mб
Скачать
  1. Понятие количества информации.

Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний.

Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию, и необходимости в получении дополнительной информации нет. Если после получения сообщения неопределенность осталась, значит, получена нулевая информация. Сообщения обычно содержат информацию о каких – либо событиях.

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).

Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit — сокращенное от binary digit — двоичная единица). Бит — минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.

Количество информации для событий с различными вероятностями определяется по формуле:

, (1)

где I – количество информации

N – количество возможных событий

pi – вероятности отдельных событий.

Если события равновероятны, то количество информации определяется по формуле:

I = log2 N (2)

или из показательного уравнения:

N = 2I (3)

Если количество возможных вариантов информации не является целой степенью числа 2, т.е. количество информации число вещественное, то необходимо воспользоваться калькулятором или следующей таблицей:

N

I

N

I

N

I

N

I

1

0,00000

17

4,08746

33

5,04439

49

5,61471

2

1,00000

18

4,16993

34

5,08746

50

5,64386

3

1,58496

19

4,24793

35

5,12928

51

5,67243

4

2,00000

20

4,32193

36

5,16993

52

5,70044

5

2,32193

21

4,39232

37

5,20945

53

5,72792

6

2,58496

22

4,45943

38

5,24793

54

5,75489

7

2,80735

23

4,52356

39

5,28540

55

5,78136

8

3,00000

24

4,58496

40

5,32193

56

5,80735

9

3,16993

25

4,64386

41

5,35755

57

5,83289

10

3,32193

26

4,70044

42

5,39232

58

5,85798

11

3,45943

27

4,75489

43

5,42626

59

5,88264

12

3,58496

28

4,80735

44

5,45943

60

5,90689

13

3,70044

29

4,85798

45

5,49185

61

5,93074

14

3,80735

30

4,90689

46

5,52356

62

5,95420

15

3,90689

31

4,95420

47

5,55459

63

5,97728

16

4,0000

32

5,00000

48

5,58496

64

6,00000

Единицы измерения количества информации.

Принята следующая система единиц измерения количества информации:

1 байт = 8 бит

1 Кбайт = 210 байт = 1024 байт

1 Мбайт = 220 байт = 1024 Кбайт

1 Гбайт = 230байт = 1024 Мбайт

1 Тбайт = 240 байт = 1024 Гбайт

1 Пбайт = 250 байт = 1024 Тбайт

Определение количества информации, представленной с помощью знаковых систем.

Если рассматривать символы алфавита как множество возможных сообщений (событий) N, то количество информации, которое несет один знак, можно определить из формулы (1). Если считать появление каждого знака алфавита в тексте событиями равновероятными, то для определения количества информации можно воспользоваться формулой (2) или уравнением (3).

Количество информации, которое несет один знак алфавита, тем больше, чем больше знаков входят в этот алфавит, то есть чем больше мощность алфавита.

Количество информации, содержащейся в сообщении, закодированном с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.