Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Praktika_I_Informatsia

.pdf
Скачиваний:
75
Добавлен:
18.03.2015
Размер:
267.03 Кб
Скачать

Федеральное агентство по образованию Государственное образовательное учреждение высшего профессионального образования

Уфимский государственный авиационный технический университет

ИЗМЕРЕНИЕ И ПРЕДСТАВЛЕНИЕ ИНФОРМАЦИИ

ПРАКТИКУМ по дисциплине «Информатика»

Часть I

Уфа 2007

Составители: М.П. Карчевская, О.Л. Рамбургер

УДК 004.4 (07)

ББК 32.973-018.2(я7)

Измерение и представление информации: Практикум по дисциплине «Информатика». Часть I / Уфимск. гос. авиац. техн. ун-т; Сост.: М.П. Карчевская, О.Л. Рамбургер – Уфа, 2007. – 27 с.

Излагаются рекомендации для проведения первого из пяти практических занятий по дисциплине «Информатика». Приводятся краткие теоретические сведения, примеры решения задач и задачи для самостоятельной работы, посвященные измерению информации и представлению числовых, текстовых, графических и звуковых данных в ЭВМ.

Предназначен для студентов, обучающихся по направлению подготовки дипломированного специалиста 140100 – « Теплоэнергетика» специальности 140101 – « Тепловые электрические станции», направлению 160300 – « Двигатели летательных аппаратов» специальности 160304 – « Авиационная и ракетно-космическая теплотехника», направлению 220300 – « Автоматизированные технологии и производства» специальности 220301 – « Автоматизация технологических процессов и производств» и направлению подготовки бакалавра 220200 – « Автоматизация и управление» и одобрены научнометодическими советами специальностей.

Библиогр.: 5 назв.

Рецензенты: канд. техн. наук, доц. Каримов Р. Р. д-р техн. наук, проф. Кривошеев И. А.

© Уфимский государственный авиационный технический университет, 2007

 

СОДЕРЖАНИЕ

 

ВВЕДЕНИЕ................................................................................................

4

1.

ИЗМЕРЕНИЕ ИНФОРМАЦИИ ......................................................

5

2.

ПРЕДСТАВЛЕНИЕ ДАННЫХ В КОМПЬЮТЕРЕ ..................

12

 

2.1. ПРЕДСТАВЛЕНИЕ ТЕКСТОВЫХ ДАННЫХ ........................................

13

 

2.2. ПРЕДСТАВЛЕНИЕ ГРАФИЧЕСКИХ ДАННЫХ ....................................

15

 

2.3. ПРЕДСТАВЛЕНИЕ ЗВУКОВЫХ ДАННЫХ ..........................................

17

 

2.4. ПРЕДСТАВЛЕНИЕ ЧИСЛОВЫХ ДАННЫХ..........................................

20

СПИСОК ЛИТЕРАТУРЫ....................................................................

27

3

ВВЕДЕНИЕ

Измерение и кодирование информации – одна из базовых тем курса информатики, отражающая фундаментальную необходимость представления информации в какой-либо форме. При этом слово «кодирование» понимается в широком смысле – как представление информации в виде сообщения на каком-либо языке. Освещение данной темы в курсе информатики возможно под различными углами зрения и на различных уровнях. В данных методических указаниях рассматриваются достаточно элементарные сведения о кодировании, имеющие общеобразовательное значение.

4

2. ИЗМЕРЕНИЕ ИНФОРМАЦИИ

Понятие информации можно трактовать как меру уменьшения неопределенности знаний о некотором процессе или объекте после получения человеком определенной совокупности знаний о нем.

Такая трактовка дает возможность ввести единицу измерения информации, и, используя математический аппарат теории вероятности, определить формулу для вычисления количества информации.

Единица измерения количества информации называется бит.

Бит есть такая минимальная порция информации, которая

уменьшает исходную неопределенность знаний человека в два раза.

Например, сообщение об исходе бросания одной монеты несет в себе количество информации, равное 1 биту.

Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных случайных событий. Тогда количество информации I, заключенное в этом сообщении и число событий N будут связаны формулой (1.1):

2I = N

(2.1)

Примечание. Случайным называется событие, исход которого невозможно за- ранее предсказать.Равновероятными считаются события, если ни одно из со- бытий не имеет преимуществ перед другими, т.е. вероятность p каждого со-

бытия одинакова и равна 1 .

N

Например, при одновременном бросании трех монет количество исходов событий N равно восьми. Сообщение об исходе бросания трех монет несет в себе количество информации, равное трем битам.

Из математики известно, что решение уравнения (1.1) имеет

вид:

I = log2 N

(2.2)

Это есть формула Хартли для вычисления количества информации в случае равновероятных событий.

Пример 2.1. Сколько бит информации будет получено при бросании пирамидки (четыре грани N=4), кубика (шесть граней N=6), при условии, что пирамидка и кубик симметричны и однородны, т.е. исходы N событий для них равновероятны.

5

Решение.

для пирамиды

I = log 24 = 2 бит

 

 

для кубика

I = log 26 ≈ 2,6 бит

 

 

Если из общего числа исходов N какого-то процесса (например, получение оценки, вытаскивание шара) нас интересует событие, которое может произойти k раз (получение пятерки, вытаскивание бело-

го шара), то вероятность этого события будет равна p = k .

N

Качественную связь между вероятностью некоторого события и количеством вероятности в сообщении об этом событии можно выра-

зить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Количественная зависимость между вероятностью события и количеством информации в сообщении о нем выражается формулой (1.3), которая в этом случае примет вид:

I = log2

1

= log2

N

.

(2.3)

 

 

 

p

k

 

Пример 2.2. В корзине 8 белых грибов и 24 подосиновика. Какое количество информации несет сообщение о том, что из корзины достали белый гриб?

Решение

 

 

 

 

 

 

 

 

 

 

 

Вероятность того,

что из корзины достали

белый гриб,

равна

p =

8

 

=

8

=

1

,

тогда

согласно

формуле

(1.4)

 

 

 

 

 

24 + 8

 

32 4

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

I = log2

 

 

 

= log2 (4) = 2 (бит).

 

 

 

 

 

 

 

 

 

 

p

 

 

 

 

 

 

 

 

Пример 2.3. В корзине 10 белых грибов, 18 подберезовиков и 22 подосиновика. Сколько информации несет сообщение о том, что из корзины достали подберезовик или подосиновик.

6

Решение

Вероятность того, что из корзины достали подберезовик или подоси-

новик, равна p =

 

18 + 22

=

40

=

4

, тогда согласно формулы (1.4)

 

 

 

 

 

 

1

10 +18 + 22

50

5

 

 

 

 

 

 

 

 

 

 

I = log2

 

 

 

= log2

(0,8) = 0,3219(бит).

 

 

 

 

 

p

 

 

 

 

 

 

 

 

Для определения количества информации в случае, если собы-

тия не являются равновероятными (р1, р2,…, p N) формула Хартли не подходит.

Для вычисления количества информации Ii, полученного в сообщении об i-м исходе события формула (1.3) примет вид:

Ii = log2

1

, i = 1KN ,

(2.4)

 

 

p

 

 

i

 

где pi – вероятность исхода i-го события, N

число исходов некото-

рого события.

 

 

 

 

 

 

 

Если количество информации I для N количества исходов неко-

торого события задать таблицей:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

I

 

log21/p1

log21/p2

 

log 21/pN

 

 

 

 

 

 

 

 

 

 

 

P

 

p1

p2

 

pN

 

 

 

 

 

 

 

 

 

 

то математическое ожидание (среднее) количества информации можно записать как

N

 

 

N

 

 

1

 

 

I = p I

 

или I = p log

 

.

(2.5)

 

 

i =1

i

i

i =1

i

2 pi

 

Эту формулу для вычисления количества информации для неравновероятных событий предложил К. Шеннон в 1948 году.

Для определения количества информации, содержащегося в сообщении об исходе случайного события в случае, когда все исходы равновероятны, т.е. р1= р2=…= рN=1/N, формула (1.5) принимает вид формулы Хартли:

N

 

1

 

 

1

 

 

N

 

1

 

 

 

I = p log

 

 

= N × p × log

 

 

 

=

 

log

 

 

 

= log

 

N .

2 pi

2

 

 

2

 

 

2

i=1

i

 

p

 

N

1/ N

 

 

7

Алфавитный подход к измерению информации. Множество символов, используемых при записи текста, называется алфавитом. Полное количество символов в алфавите называется мощностью (размером) алфавита.

С помощью формул (1.2) и (1.3) можно определить количество информации, которое несет в себе каждый символ некоторого текстового сообщения, если допустить, что все символы встречаются в сообщении с одинаковой вероятностью, а мощность алфавита N символов.

Так, например, в 2-х символьном алфавите каждый символ несет 1 бит (log22=1) информации; в 4-х символьном алфавите –2 бита информации (log24=2); в 8-ми символьном – 3 бита (log28=3) и т.д.

Один символ из алфавита мощностью 256 символов (28) несет в тексте 8 бит информации. Такое количество информации называется байтом (1 байт = 8 бит).

Пример 2.4. Для записи сообщения используется алфавит мощностью 64 символа. Все сообщение содержит 8775 байтов информации и занимает 6 страниц по 30 строк в каждой. Сколько символов содержится в строке?

Решение. Сообщение занимает 6×30=180 строк. Сообщение содержит

8775 × 8 бит информации. Одна строка содержит 8775× 8 = 390 бит. 180

Один символ алфавита несет log264 = 6 бит информации. Тогда коли-

чество символов в строке равно: 390 = 65 символов. 6

Ответ: 65 символов.

Для измерения информации используются и более крупные единицы:

1 Кбайт = 210 байт = 1024 байт, 1 Мбайт= 210 Кбайт = 1024 Кбайт,

1 Гбайт = 210 Мбайт = 1024 Мбайт, 1 Тбайт = 210 Гбайт = 1024 Гбайт (терабайт),

1 Пбайт = 210 Тбайт = 1024 Тбайт (петабайт).

8

Пример 2.5. Расположить переменные в порядке возрастания А = 212 Кбайт; В = 2 Мбайт; С = 64 × 217 бит.

Решение. Необходимо привести все переменные к одной единице измерения:

A = 212 × 210 × 23 = 225 бит;

В = 2 × 210 × 210 × 23 = 224 бит; С = 26 × 217 =223 бит.

Ответ: С, В, А.

Пример 2.6. Книга, набранная с помощью компьютера, содержит 150 страниц; на каждой странице – 40 строк, в каждой строке – 60 символов. Определить объем информации в книге в Мбайтах.

Решение

Мощность компьютерного алфавита равна 256 символов. Один символ несет 1 байт информации. Значит, страница содержит 40 × 60 = 2400 байт информации. Количество всей информации в книге:

2400 × 150 = 360 000 байт.

360 000 / 220≈ 0,3434 Мбайт.

Для измерения информации, заключенной в тексте, необходимо иметь в виду, что разные символы (буквы алфавита, знаки препинания и др.) встречаются в тексте с разной частотой. Так, в русском языке гораздо чаще в тексте встречаются буква a чем, например, буква ф, а наименьшую частоту в русских текстовых сообщениях имеет буква ъ. Следовательно, для измерения информационного веса каждого символа из предположения равновероятного его появления в тексте нельзя использовать формулу Хартли.

Общий объем информации I в таком сообщении вычисляется как сумма произведений информационного веса каждого символа на число повторений этого символа в сообщении:

N

 

I = ki Ii ,

(2.6)

1

 

где N – количество различных символов, встречающихся в тексте, ki – число повторений i– го символа,

 

1

 

 

 

 

Ii – информационный вес i– го символа Ii = log2

 

.

 

pi

9

 

 

Пример 2.7. В алфавите всего 2 буквы и один пробел. Подсчитано, что в сообщении содержится 10000 знаков, из них одна буква встречается 5000 раз, другая 4000 раз и пробелов – 1000. Какой объем информации содержит сообщение.

Решение

Подсчитаем информационный вес каждого символа:

буква1: I

= log

 

10000

 

 

= log

 

2 = 1(бит),

 

5000

 

1

 

2

 

 

 

2

 

 

 

буква2: I2

= log2

 

10000

 

= log2

 

5

= 1,3219(бит),

 

 

2

 

 

 

4000

 

 

 

 

 

пробел: I3

= log2

 

10000

= log2 10 = 3,3219(бит).

 

 

 

 

1000

 

 

 

 

 

 

 

Общий объем информации в сообщении согласно (1.6) равен:

I = 1× 5000 + 1,3219 × 4000 + 1000 × 3,3219 = 13609,5(бит).

Задачи и упражнения

1.Отгадывается одно из 30 чисел. Определить минимальное количество бит информации, необходимое для отгадывания числа.

2.При отгадывании чисел потребовалось получить информацию в 5 бит. Определить наибольшее общее количество чисел, из которых требовалось определить загаданное.

3.Определить какой объем информации содержит сообщение, уменьшающее неопределенность знаний в четыре раза.

4.Пешеход подошел к светофору, когда горел красный свет. После этого загорелся желтый свет. Определить какое количество информации получил при этом пешеход.

5.В корзине лежит 8 шаров. Все шары разного цвета. Определить сколько информации несет сообщение, что из корзины достали красный шар.

6.При угадывании целого числа в диапазоне от 1 до N было получено семь бит информации. Определить чему равно N.

7.При угадывании целого числа в некотором диапазоне было получено шесть бит информации. Определить сколько чисел содержит этот диапазон.

8.Сообщение о том, что ваш друг живет на десятом этаже, несет четыре бита информации. Определить сколько этажей в доме.

10

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]