Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция по основам алгоритмизации.doc
Скачиваний:
4
Добавлен:
22.07.2019
Размер:
143.87 Кб
Скачать

10

1)Понятие об информации.

1.1 Смысл информации.

А) бытовой (сведения, сообщения, которыми обмениваются люди и устройства)

Б) вероятностный (сведенья, которые уменьшаю неопределенность для их получателя)

Вася спрятал в одной руке яблоко, вы стоите перед ним в состоянии неопределенности, мама стоит сзади и видит в какой руке яблоко. Если мама скажет в какой руке яблоко, неопределенность для вас исчезнет. Значит, мама передала для вас информацию. Есть мама подскажет еще раз, то информацию вам она уже не передаст.

Вывод:

Информация зависит от получателя и контекста (время, место).

Информация в таком смысле даже может быть умерена количественно, что и делается в теории информации.

Количество информации, достаточно между 2-мя альтернативами называют 1 бит.

Значит мама передала 1 бит, не зависимо от того, в какой форме было сообщение (словом, местом и т. д). Самая компактная форма кодирования – передавать 0 или 1 для правой или левой руки собственно.

Пример для самостоятельного решения.

Парадокс Монти- Холла (о том, как внесение информации меняет вероятность)

Есть телеигра со следующими правилами:

За одной из 3-х дверей находиться автомобиль, за другими пусто. Вам предлагается выбрать дверь, за которой вы ожидаете машину. После вашего выбора ведущий вскрывает одну из оставшихся дверей, за которой пусто, и предлагает еще сделать выбор уже между 2- мя дверями. Стоит ли менять первоначальный выбор.

Физический и математический смысл.

Информация – величина, обратная к энтропии.

Энтропия в термодинамике - мера хаоса в системе, т. е наибольшей однородности.

Максимальной энтропии обладает объем газа с равномерной температурой. Все его частицы движутся полностью хаотично, никаких процессов в нем без притока энергии извне происходить не может. Энтропия постепенно растет до максимума в любой закрытой системе, любая разница температур выравнивается. Происходит так называемая тепловая смерть системы.

В природе есть много неэнтропийных процессов с уменьшение энтропии. Они происходят в живой природе.

Есть гипотеза о будущей тепловой смерти вселенной. Ее истинность зависит от того, открытая это система или закрытая.

Есть наука синергетика, которая занимается открытыми системами и неэнтропийными процессами.

В математике есть раздел «теория сложностей», автор которого А.М. Колмогоров. Сложность некоторого формального объекта в теории сложности принимается равной минимальной длине алгоритма, который может породить этот объект.

Сложность блюда логично принять равной кратчайшей длине рецепта по его изготовлению. Физическая информация очевидно связана со структурой и поведением (кол – во состояний и переходов между ними) объекта. Очевидно, например, что евроокно информационный проще, чем кубик Рубика.

Примеры информационных явлений (процессов) можно найти в природе на любом уровне, начиная от кристаллов и явлений самоорганизации кристаллических решеток и кончая сложнейшими первыми и генетическими системами, в живой природе.

Современные науки выделяют 3 субстанции в материи: вещество, энергия и информация.

В природе действуют законы сохранения вещества и энергии. Любое взаимодействие между объектами, в которой один объект принимает некоторою субстанцию, а другой ее не теряет называют информационным взаимодействием, а саму субстанцию – информацией.

Тем не менее информация всегда существует в неразрывной связи со своим носителем, вещественным или энергетическим, но при этом информация не зависит от носителя, может неограниченно тиражироваться на многих носителях, при этом стоимость тиражирования имеет тенденцию к уменьшению.

Научно- технические революции, в этом числе информационные: изобретения огня, бронзовый век, железный век, изобретение письменности, изобретение книгопечатанья, машинное производство, отделение и универсализация производства энергии (электроэнергия, электросвязь, изобретение денежной системы.

Мы видим, что каждая революция связана с изменением в способах преобразования, хранения и передачи вещества энергии, информации. Видим, что в списке еще нет революции в обработке информации. Она произошла в середине XX века с изобретением ЭВМ. Этот переворот тесно связан с очередными переворотами в обработке энергии и вещества. ЭВМ изначально использовались для управления космическими полетами, ядерной энергетики и т.д.

Д/з :1) парадокс Монти – Холла.

2) Сколько бит информации содержит сообщение о том когда у человека день рождения, если вы это еще не знали?

3) Сколько бит информации вы сообщаете лифту в доме из этажей, когда нажимаете на кнопку? (чисто бит будет не целым)

1)Разбор парадокса Монти – Холла

При решении этой задачи обычно рассуждают так: ведущий всегда в итоге убирает одну проигравшую дверь, и тогда вероятность появления автомобиля за двумя неоткрытыми дверьми становится равной ½, в зависимости от первоначального выбора.

Вся суть в том, что своим первоначальным выбором участник делит двери А и две другие В и С. Вероятность того, что автомобиль находится за выбранной дверью = 1/3, того, что за другими = 2/3. Для которой из оставшихся дверей сложившаяся ситуация описывается так. Дверь В – 2/3*1/2= 1/3; дверь С – 2/3 * ½ =1/3; где ½ условная вероятность для данной двери при условии, что автомобиль не за дверью, выбранной игроком.

Ведущий, открывая одну из оставшихся дверей всегда проигрышную, сообщая тем самым игроку ровно 1 бит информации, а менее условные вероятности для В и С соответственно на «1» и «0» . В результате выражения принимают вид Р(В)=2/3*1=2/3, Р(С)=2/3*0=0.

Таким образом участнику следует изменить свои первоначальный выбор - в этом случае вероятность выигрыша будет = 2/3.

Одним из простейших объяснений является следующее. Вероятность того, что изначально была выбрана дверь, скрывающая кому равна 2/3 и того никак не связано с тем, что открыл дверь; когда выбрана с вероятностью 2/3. Следовательно, смена выбранной двери обеспечит равную 2/3 вероятность выбора автомобиля.

2)9 бит 3) 2x=n x= log2 n

Кол – во информации необходимо для выбора из n альтернативы (т. е для кодирования одного из n двоичных значений) log2 n. И наоборот, имея n бит, можно закодировать 2 разных значений.

Данные и их представления

Данные – это информация, предоставленная в формализованном виде, пригодном для автоматизированной сборки.

Пример: значения некоторые данные, надо уметь быть записано совершенно разумным способами ( на разных носителях, в разных системах счисления).

Имея некоторые данные, надо уметь правильно их интерпретировать, т. е восстановить из них ту информацию, которая была закодирована. Существуют 2 способа представлять данные аналогичным сигналом и цифровым сигналом. Более общие математические синонимы - непрерывный и декретный.

Аналоговый сигнал - непрерывно изменяющийся во времени, представший непрерывной функцией во времени.

Цифровой сигнал – рассматриваемый на множестве временных отрезков и принимающих значение из множества возможных значений.

Непрерывная функция, которая для любого x0 на некотором отрезке и (x 0 64)и для любого сколь угодно малого Е существует δ, что при *

Неформально говоря, это значит, что в любой точке где функция непрерывна, можно вписать ее в график в сколь угодно малый треугольник. (по высоте).

Дискретность явления – его представимость элементами конечного или отчетного множества.

Счетное множество - бесконечное множество, элементы которого можно пронумеровать натуральными числами.

Несчетное множество - множеств информационных чисел, действительные числа.

В математике есть раздел дискретной математике, которая изучает дискретные структуры.

В математическом понимании – дискретный не значит конечный, но в технике значит.

Мир непрерывен или дискретен?

На микроуровне имеется дискретность. Это элементарные частицы. Есть мнение, что время тоже дискретно, т. е имеется наименьший интервал (10-44 C) - он же наименьший период волн. Но с другой стороны любая элементарная частица является волной, а волна – это понятие непрерывно. На макроуровне физический мир непрерывен, но человек в своем восприятии выделяет в нем отдельные объекты, т.е можно считать, что на физическом уровне сигналь всегда непрерывен. Если он интерпретируется непрерывно, то это аналоговый сигнал, а если мы используем конечный набор уровней сигнала, то это цифровой сигнал. Например: будет передавать в эфир отметил о посещении студентом занятий с предыдущего графика, но не сможем сделать сигнал бесконечно коротким и включить и выключить его мгновенно, поэтому реально это будет выглядеть так:

Кроме того всегда есть помехи. Таким образом, для передачи цифровых данных нужно изменять параметры сигнала так, чтобы были различны отдельные значения из конечного набора (здесь, в том числе важно, чтобы помехи не превышали по своей величине различий между значениями).

Процесс изменения параметров аналогового сигнала в соответствии с цифровыми данными называют цифровой модуляцией (в аналоговой связи бывает аналоговая модуляция, когда параметры изменяются в связи с другими аналоговыми сигналами).

Обычно изменяемый параметр – амплитуда. Это называют амплитудой модуляции.

В высокочастотной радиосвязи изменяются в небольших пределах частоту несущего сигнала при постоянной амплитуде.

Основные преимущества цифрового сигнала – устойчивость к ошибкам (мелкие искажения не влияют на возможность однозначно узнавать цифровые значения, хотя крупные могут искать цифровой сигнал, однако для цифрового сигнала существует алгоритм коррекции ошибок, например, в архиваторах есть настройка «добавить данные для восстановления»). Недостаток - любой аналоговый носитель имеет меньшую информационную емкость, если он используется для передачи цифровых данных. Именно поэтому цифровое вещание только кабельное.

Чаще всего используется двоичный цифровой сигнал, иногда троичный. Например, в цифровой электронике может использоваться 3 вольта для код 1 и 0,5 в – 0.

Встречается задача, представления аналоговых данных цифровой сигнал.

Таким образом, мы вспомнили дискретизацию чисел - приближения написанных аналоговых данных в дискретной последовательности, может ее закодировать двоичной и представить на цифровом носителе.

Допустим, на кодирование дано 8 бит, 160=10100000

Параметрами, влияющими на постфакторы дискретизации является частота выбора или разрешения для пространственных данных , например изображения и глубина кодирования – сколько возможных значений выделяется под каждым измерением . Обычно выделяется целое число бит 8 бит- 256 возможных значений16 бит – 65636; 32 бит- порядка 2 млрд. Для кодирование звука применяется обычно 16 бит, иногда 8 или 20. Частота выборки должна быть как минимум в 2 раза больше максимальной записываемой частоты. Если предел отношения человека 20кГц, то частота выборки обычно берется 44 кГц.

Для кодирования 1 пикселя изображения обычно используют 24 бит.

К цифровым данным можно применять сжатие. Есть 2 вида сжатия: сжатие без потерь и сжатие с потерями. Сжатие без потерь основано на поиске повторяющихся последовательностей данных и их кодирования особым образом. Так работают архиваторы.

Формат bmp поддерживает режим RLE, при котором m рядом стоящих пикселей одинакового цвета будут записаны 1 раз с добавлением множителя n.

Современный графический формат для представления без потерь – PNG (Portable Netovork Grafic).

Однако цифровой сигнал с « живых» данных (звук, фото) полученный дискретизацией не содержит повторяющих последовательностей «как линиями из-за помех и погрешности измерений . Для таких данных может применяться сжатие с потерями. Оно учитывает особенности человеческого восприятия и удаляет ту информацию, которую человек не замечает. В изображении происходит сглаживание редких переходов (jped). Удаление малейших очертаний читает в звуке. (mp3. ogg). Алгоритм сжатия типа jpeg используют временное сжатие при котором для длинных похожих сцен записывается только начальный кадр, а затем его изменения (mpeg). Формат …. Используют только покадровое jpeg сжатия поэтому занимает много места.