Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ГОС информатика2.docx
Скачиваний:
15
Добавлен:
07.07.2019
Размер:
130.5 Кб
Скачать
  1. Информация, её виды. Св-ва инфы. Сп-бы передачи инфы. Кодирование инфы, представление инфы в компе. Измерение объёмов инфы. Формулы Шеннона, Хартли.

Информация(от лат. informatio — осведомление, разъяснение, изложение, от лат. informare — придавать форму)  – одно из фундаментальных понятий современной науки. Слово «И» в широком смысле мы используем для обозначения содержания различных сообщений. Законы и методы организации Инных процессов с помощью универсального исполнителя – компьютера – изучает наука информатика. Одного точного определения И в науке нет. Поэтому в школьном курсе рассматривают понятие об И. Понятия отличаются от определений тем, что смысл, который они несут, может изменяться в зависимости от того, где это понятие используется. Так, например, И – это: в быту – сведения об окружающем мире, которые воспринимает человек или устройства; в технике – отражение внешнего мира с помощью знаков или сигналов; в теории информации – сведения, которые полностью снимают или уменьшают неопределенность. Есть два подхода к определению понятия «И» – содержательный и алфавитный.

Содержательный подход связан с передачей информации: информация – это сведения, которые снимают неопределенность (Клод Шеннон). Оно используется в математической теории информации. Рассмотрим осн. правила, на которых основан содержательный подход: 1)сообщение содержит И, если оно является для человека новым и понятным; 2) неопределенность знаний о некот. событии – это кол-во возможных вариантов наступл. этого события; 3) сообщение, кот уменьшает неопределенность знаний в два раза содержит 1 бит И; 4) количество И о том, что произошло одно из N равновероятных событий, находится по формуле I = log2N. Например, для последовательности натуральных чисел И «задуманное натуральное число четное» уменьшает неопределенность в два раза.

Алфавитный подход связан с кодированием информации: она представляется как последовательность символов некот. алфавита (кодируется) (А.Н. Колмогоров). Основные правила, на которых основан алфавитный подход: 1) количество символов N, которые составляют алфавит, называют мощностью алфавита; 2) количество информации, которое соответствует одному символу алфавита, равно i = log2N; 3) сообщение из K символов содержит информацию объемом K*i. Так, если алфавит состоит из двух символов – нуля и единицы, получаем двоичное кодирование информации. Таким образом, при алфавитном подходе количество информации никак не зависит от ее содержания и, оба подхода пытаются определить информацию через ее измерение. Информация равна 0, когда возможно только одно событие. С ростом числа событий количество информации увеличивается и достигает максимального значения.

Для измерения И за единицу берут «бит» - количество информации, которое можно передать в сообщении, состоящем из одного двоичного знака (0 или 1). 1 байт = 8 бит. И характеризуется содержанием и формой представления.

Оценивая содержание И, выделяют ее свойства:

  • Объективность и субъективность(Более объективной принято считать ту инфу, в кот методы вносят меньший субъективный хар-р);

  • Полнота(Полнота инфы во многом характеризует качество инфы и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся. Чем полнее данные, тем шире диапазон методов, кот можно использовать, тем проще подобрать метод, вносящий min погрешностей в ход информационного процесса);

  • Достоверность;

  • Адекватность(степень соответствия реальному объективному состоянию дела);

  • Доступность(возм-ти получить ту или иную инфу);

  • Актуальность(степень соответствия инфы текущему моменту времени).

Формы представления информации(визуальная, звуковая, тактильная, вкусовая, информация о запахах)+носителяли, на которых информация представлена (текстовая, графическая, цифровая, нотная) и генетическая И. Понятие «И» формируется в школьном курсе также через перечисление действий с И – информационных процессов(передача, сохранение и обработка,обмен, распространение, запись, считывание, поиск, редактирование, упорядочение, создание).

Классификацию можно дополнить другими критериями: 1) по качеству проявления (полезная, бесполезная, дезинформация); 2) по общественному значению (массовая: повседневная, общ-полит, эстетическая и др.; спец: науч, техническая, управленческая и др.); 3) по целям использования (нормативная, плановая, справочная, отчетная, аналитическая).

В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид: Есть некоторая система. Количество состояний N, количество вопросов m, количество информации I. Причем для каждого m, N который ему соответствует равен . Тогда - формула Р.Хартли.    В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями. Если I - количество информации, N - количество возможных событий, рi - вероятности отдельных событий, то количество информации для событий с различными вероятностями можно определить по формуле:

- формула К.Э. Шеннона, где .

Своя сист кодир сущ в выч тех-ке-сист двоичного кодор-ия(0/1-двоичные цифры bit-да/нет). Целые числа кодируются двоичным кодом достаточно просто — достаточно взять целое число и делить его пополам до тех пор, пока в остатке не образуется ноль или единица. Совокупность остатков от каждого деления, записанная справа налево вместе с последним остатком, и образует двоичный аналог десятичного числа. 19:2 = 9+1; 9:2 = 4 + 1; 4:2 = 2 + 0; 2:2 = 1 + 0; 1 ; Таким образом, 1910 = 100112.

Если каждому символу алфавита сопоставить опр целое число, то с п-ю двоичного кода можно код-ть и текстовую инф-цию. Для англ языка Институт стандартизации США ввел в действие однобайтовую систему кодирования ASCIIстандартный код информационного обмена США-сост из 2-х таблиц- базовой(0-127 – коды символов англ алфавита, знаки препинания, цифры, арифм действия и др) и расширенной (128-255 – коды символов нац систем кодир-я). Отсутствие единого стандарта привело к множественности одновр действующих кодировок: КОИ-8, Windows-1251 (фирмы Microsoft), код ISO(междунар стандарт), 2-байтовая кодировка Unicode (наиб распростр; символы могут иметь коды от 0 до 65535, в ней имеются коды для букв разных алфавитов, матем символов и др).

Мельчайшие точки, образующ объект –растры. Поскольку линейные координаты и яркость каждой точки можно выразить с п-ю целых чисел, то можно сказать, что растровое код-е позволяет исп-ть двоичный код для представления графич данных. Общепринятым на сегодняшний день считается представление черно-белых иллюстраций в виде комбинации точек с 256 градациями серого цвета, и, таким образом, для кодирования яркости любой точки обычно достаточно восьмиразрядного двоичного числа. Для кодирования цветных графических изображений применяется принцип декомпозиции произвольного цвета на основные составляющие. В качестве таких составляющих используют 3 основных цвета: красный, зеленый и синий. Такая система кодирования называется системой RGB. На код-е одной точки надо затратить 24 бита(полноцветный режим). В полиграфии принят принцип коди-я CMYK(любой цвет можно представить в виде суммы дополнит цветов: голубой, пурпурный, желтый); надо иметь 32 бита. При код-и граф инф-ции с п-ю 8 бит можно передать 256 оттенков. Это индексное код-е – каждый код цвета-это индекс(номер) цвета в справочной таблице (палитре), она должна прикладываться к графич данным.

Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а, следовательно, может быть описан числовыми параметрами, то есть кодом. Метод таблично-волнового синтеза. Если говорить упрощенно, то можно сказать, что где-то в заранее подготовленных таблицах хранятся образцы звуков (сэмплы) для множества различных музыкальных инструментов (хотя не только для них). Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения и др.

Сущ 3 осн типа структур данных: линейная(списки, адрес-один помер), табличная (матрицы, адрес-номер строки и столбца), иерархическая(адрес-путь доступа (маршрут), ведущим от вершины структуры к данному элементу).

Байт это объем памяти компа, который отводится для хранения цифрового кода одного символа алфавитно-цифр. инф. Бит – один символ двоичного алфавита. С его помощью можно полностью передать информацию о реализации события, которое может иметь два исхода. Например, бросание монеты.(1бит=8байт). «информационные процессы» – процессы, цель которых передать, сохранить или обработать информацию. Информационные процессы – процессы передачи, хранения, обработки и поиска информации.