Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория информации (лекция №1).doc
Скачиваний:
6
Добавлен:
23.04.2019
Размер:
219.65 Кб
Скачать

Одесский национальный медицинский университет

кафедра биофизики, информатики и медицинской аппаратуры

Лекция №1

по курсу "медицинская информатика"

для студентов 1-го курса по теме:

«Вводная лекция. Теория информации»

«Утверждено»

на методическом совещании кафедры

Протокол № от “ ” 2010 г.

Зав кафедрой проф._____________Годлевский Л.С.

Одесса - 2010 Теория информации

Теория информации (математическая теория связи) — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, оперирует с математическими моделями, а не с реальными физическими объектами (источниками и каналами связи). Использует, главным образом, математический аппарат теории вероятностей и математической статистики.

Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Теория информации тесно связана с криптографией и другими смежными дисциплинами.

История

Основная статья: Хронология развития теории информации

Клода Шеннона (19162001) называют «отцом теории информации». [1] Разработанная им теория, изначально понимавшаяся как строго математическая задача в статистике, дала инженерам-разработчикам систем передачи данных возможность определения ёмкости коммуникационного канала. Передающая часть теории не занимается значением (семантикой) передаваемого сообщения, однако дополняющая часть теории информации обращает внимание на содержимое через сжатие с потерями субъекта сообщения, используя критерий точности.

Разработанные Клодом Шенноном в сороковых годах двадцатого века основы Теории информации в последующие годы были существенно дополнены и расширены работами Н. Винера, В. А. Котельникова и А. Н. Колмогорова.

Информация

Информация — то, что уменьшает степень неопределенности, неполноту знаний о лицах, предметах, событиях и т.д.; одно из основных философских понятий, наряду с понятиями: мир, вселенная (в несколько более узком понимании - природа). И. - это отражение в материальных объектах (на носителях информации) некоторых сторон и/или частей мира. В этом, самом широком, понимании И. - нематериальная часть мира, взаимосязанная с иными его частями весьма ассиметричным образом: наличие или отсутствие, появление, копирование или исчезновение на носителе информации характеризуется малым (не влияющим на целостность, устойчивость и обособленность от внешней среды) изменением отдельных его физических свойств. Величина изменений при этом зависит только от вида свойства и никак не связана с количеством И. И.- часть мира и в этом смысле может быть объектом отражения в другой И. По форме отражения И. может быть либо непрерывной (аналоговой) либо дискретной (кодированной).

Влияние И. на материальную часть мира проявляется объективно в явлениях роста, наследственности и устойчивости форм живых организмов.

В математике И. - значимая для субъекта система описания субъективного и объективного мира, передаваемая с помощью сигналов и возникающая в процессе их интерпретации (в частности, закладываемая в данные при кодировании и распознаваемая при их декодировании). В этом понимании И. существует исключительно в активной информационной машине (например, мозге) самонастривающихся систем. И. при передаче легко искажается и теряется, что связано с субъективным характером интерпретации сигналов.

Следует понимать, что понятие данные не синоним информации. Например, число 32 - это данные, не имеющие никакой информации. В то же время, данные могут являться сигналом, передаюшим информацию для самонастривающихся систем.