Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика 13 сентября.doc
Скачиваний:
6
Добавлен:
05.11.2018
Размер:
219.14 Кб
Скачать

Информатика. Лекция от 13.09.2011.

Слово «информация» происходит от латинского «informatio», что в переводе значит сведение, разъяснение, ознакомление.

Философский подход:

Информация – взаимодействие, отражение, познание.

Кибернетический подход:

Характеристики управляющего сигнала, передаваемого по линиям связи.

Информация – сведения об объектах и явлениях окружающей среды, их направлениях, свойствах и состоянии, которые уменьшают имеющуюся у них степень неопределенности.

Подходы к определению информации

Традиционный

(используется в информатике)

Вероятностный

(используется в теории)

Информация – сведения, знания, сообщения о положении дел, которые человек воспринимает их окружающего мира с помощью органов чувств.

Информация – сведения об объектах и явлениях определенной среды, их параметрах, свойствах и состояний, которые уменьшают имеющуюся у них степень неопределенности.

Знания можно разделить на две группы:

  • Декларативные («я знаю, что…»);

  • Процедурные (определенные действия для достижения какой-либо цели; «я знаю, как…»).

Классификация информации

По способам восприятия

(визуальная, аудиальная, тактильная, обонятельная, вкусовая)

По формам представления

(текстовая, числовая, графическая, музыкальная, комбинированная и т.д.)

По общественному значению

(массовая, специальная, личная)

Основные свойства информации:

  1. Объективность – не зависит от чьего-либо мнения;

  2. Достоверность – отображает истинное положение дел;

  3. Полнота – достаточна для понимания и принятия решения;

  4. Актуальность – важна и существенна для настоящего времени;

  5. Ценность (полезность, значимость) – обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения;

  6. Понятность (ясность) – выражена на языке, доступном получателю.

Дополнительные свойства

Атрибутивные

Динамические

Практические

дискретность (информация состоит из отдельных частей, знаков)

 непрерывность (возможность накапливать информацию)

связаны с изменением информации во времени:

  • копирование – размножение информации

  • передача от источника к потребителю

  • перевод с одного языка на другой

  • перенос на другой носитель

  • старение (физическое – носителя, моральное – ценностное)

Информационный объем и плотность

Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

Информация и подходы к её измерению.

  • Содержательный подход (субъективный)

(Информация – знания (декларативные, процедурные) – информация увеличения знаний);

  • Кибернетический (объективный)

(Информация – последовательность символов → количество информации – объёмная мера текста).

Единицы измерения информации.

За единицу количества информации приняли такое количество информации, при котором неопределенность знаний уменьшается в 2 раза. Такая единица названа «бит».

Информационный объем сообщения – количество двоичных символов, используемых для кодирования этого сообщения.

Каждому символу в компьютере соответствует последовательность из 8 нулей и единиц, называемая байтом. 1 байт = 8 бит.

Используются и более крупные единицы измерения информации:

  • 1 Кбит (килобит) = 210 бит = 1024 бит

  • 1 Мбит (мегабит) = 210 Кбит = 1024 Кбит

  • 1 Гбит (гигабит) = 210 Мбит = 1024 Мбит

  • 1 Кбайт (килобайт) = 210 байт = 1024 байт

  • 1 Мбайт (мегабайт) = 210 Кбайт = 1024 Кбайт

  • 1 Гбайт (гигабайт) = 210 Мбайт = 1024 Мбайт

  • 1 Тбайт (терабайт) = 210 Гбайт = 1024 Гбайт

Формула Хартли.

В 1928г. Американский инженер Р.Хартли предложил научный подход к оценке сообщений.

Количество информации при вероятностном подходе можно вычислить, пользуясь следующими формулами:

1). Формула Хартли.

I = log2 N   или   2I = N,

где       N - количество равновероятных событий (число возможных выборов),

I - количество информации.

Задача.

   Шарик находится в одной из трех урн: А, В или С. Определить, сколько бит информации содержит сообщение о том, что он находится в урне В.

   Решение.

   Такое сообщение содержит I = log2 3 = 1,585 бита информации.

2). Модифицированная формула Хартли.

I = log2 (1/p) = - log2 p

где p - вероятность наступления каждого из N возможных равновероятных событий.

Формула Шеннона.

В 1947г. Американский инженер и математик К.Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.

I = Sum (pi hi)= - Sum( pi log2 pi),

где

I –КОЛИЧЕСТВО ИНФОРМАЦИИ

K- количество возможных событий

pi - вероятности отдельных событий,

Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:

            I = - Sum 1 / N log2 (1 / К) = I = log2 N.

Пример

. Для хранения двоичного кода одного символа выделен 1 байт = 8 бит.

  1. Учитывая, что каждый бит принимает значение 0 или 1, количество их возможных сочетаний в байте равно 28=256

Число цветов, воспроизводимых на экране монитора (N), и число бит, отводимых в видеопамяти на каждый пиксель (I), связаны формулой:

N=2I

Величину I называют битовой глубиной или глубиной цвета.

  1. О бъем памяти, необходимой для хранения графического изображения, занимающего весь экран, равен произведению количества пикселей (разрешающей способности) на число бит, кодирующих одну точку. Объем графического файла в битах определяется как произведение количества пикселей A*B на разрядность цвета (битовую глубину) I

V=A*B*I

Например, при разрешении 640*480 и количестве цветов 16 (I=4 бита) (N=2i) объем памяти равен: 640*480*4 = 1228800 (бит) или