- •Понятие информатики. История развития информатики.
- •Понятие информации и ее измерение. Виды информации.
- •Свойства информации.
- •Категории информатики.
- •Структурная мера информации.
- •Статистическая мера информации.
- •Семантическая мера информации.
- •Дискретизация информации.
- •Помехи, типы помех, методы борьбы с помехами
- •Передача информации по каналу связи с помехами и без помех. Передача информации по каналу связи с помехами
- •Передача информации по каналу связи без помех
- •Системы счисления. Правила перевода чисел.
- •Прямой код
- •Дополнительный код
- •Операция сложения положительного числа и отрицательного числа, представленного в прямом коде
- •Операция сложения положительного числа и отрицательного числа, представленного в дополнительном коде
Понятие информатики. История развития информатики.
Информатика – наука о средствах вычислительной техники.
История развития информатики:
Информатика как наука стала развиваться с середины прошлого столетия, что связано с появлением ЭВМ и начавшейся компьютерной революцией. Появление вычислительных машин в 1950-е гг. создало для информатики благоприятную среду для ее развития как науки. Всю историю информатики принято подразделять на два больших этапа: предысторию и историю.
Предыстория информатики такая же древняя, как и история развития человеческого общества. В предыстории также выделяют ряд этапов. Каждый из них характеризуется резким возрастанием, по сравнению с предыдущим этапом, возможностей хранения, передачи и обработки информации.
Начальный этап предыстории информатики – освоение человеком развитой устной речи. Членораздельная речь, язык стали специфическим социальным средством хранения и передачи информации.
Второй этап – возникновение письменности. На этом этапе резко возросли возможности хранения информации. Организация почтовых служб позволила использовать письменность и как средство передачи информации.
Третий этап – книгопечатание. Его можно смело назвать первой информационной технологией. Воспроизведение информации было поставлено на поток, письменный источник – это часто один-единственный экземпляр, печатная книга – это целый тираж экземпляров, а следовательно, и малая вероятность потери информации при хранении), Четвертый этап предыстории информатики связан с успехами точных наук(прежде всего математики и физики) и начинающейся научно-технической революцией. Этот этап характеризуется возникновением таких мощных средств связи, как радио, телефон и телеграф, а позднее и телевидение. Появились новые возможности получения и хранения информации – фотография и кино. К ним очень важно добавить разработку методов записи информации на магнитные носители (магнитные ленты, диски).
С разработкой первых ЭВМ принято связывать возникновение информатики как науки, начало ее истории.
На сегодняшний день информатика представляет собой комплексную научно-техническую дисциплину. Под этим названием объединен довольно обширный комплекс наук, таких, как кибернетика, системотехника, программирование, моделирование и др. Каждая из них занимается изучением одного из аспектов понятия информатики. Учеными прилагаются интенсивные усилия по сближению наук, составляющих информатику. Однако процесс их сближения идет довольно медленно, и создание единой и всеохватывающей науки об информации представляется делом будущего.
Понятие информации и ее измерение. Виды информации.
Информация – В быту: Сведения об окружающей среде, в технике: сообщения в форме сигналов, хранимые, обрабатываемые, передаваемые.
Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику. Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику)
Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации.
Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.
Количество информации - это мера уменьшения неопределенности.
1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. БИТ- это наименьшая единица измерения информации
Единицы измерения информации: 1байт = 8 бит
1Кб (килобайт) = 210 байт = 1024 байт
1Мб (мегабайт) = 210 Кб = 1024 Кб
1Гб (гигабайт) = 210 Мб = 1024 Мб