Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
inf.docx
Скачиваний:
3
Добавлен:
07.08.2019
Размер:
2.12 Mб
Скачать
  1. Понятие информатики. История развития информатики.

Информатика – наука о средствах вычислительной техники.

История развития информатики:

Информатика как наука стала развиваться с середины прошлого столетия, что связано с появлением ЭВМ и начавшейся компьютерной революцией. Появление вычислительных машин в 1950-е гг. создало для информатики благоприятную среду для ее развития как науки. Всю историю информатики принято подразделять на два больших этапа: предысторию и историю.

Предыстория информатики такая же древняя, как и история развития человеческого общества. В предыстории также выделяют ряд этапов. Каждый из них характеризуется резким возрастанием, по сравнению с предыдущим этапом, возможностей хранения, передачи и обработки информации.

Начальный этап предыстории информатики – освоение человеком развитой устной речи. Членораздельная речь, язык стали специфическим социальным средством хранения и передачи информации.

Второй этап – возникновение письменности. На этом этапе резко возросли возможности хранения информации. Организация почтовых служб позволила использовать письменность и как средство передачи информации.

Третий этап – книгопечатание. Его можно смело назвать первой информационной технологией. Воспроизведение информации было поставлено на поток, письменный источник – это часто один-единственный экземпляр, печатная книга – это целый тираж экземпляров, а следовательно, и малая вероятность потери информации при хранении), Четвертый этап предыстории информатики связан с успехами точных наук(прежде всего математики и физики) и начинающейся научно-технической революцией. Этот этап характеризуется возникновением таких мощных средств связи, как радио, телефон и телеграф, а позднее и телевидение. Появились новые возможности получения и хранения информации – фотография и кино. К ним очень важно добавить разработку методов записи информации на магнитные носители (магнитные ленты, диски).

С разработкой первых ЭВМ принято связывать возникновение информатики как науки, начало ее истории.

На сегодняшний день информатика представляет собой комплексную научно-техническую дисциплину. Под этим названием объединен довольно обширный комплекс наук, таких, как кибернетика, системотехника, программирование, моделирование и др. Каждая из них занимается изучением одного из аспектов понятия информатики. Учеными прилагаются интенсивные усилия по сближению наук, составляющих информатику. Однако процесс их сближения идет довольно медленно, и создание единой и всеохватывающей науки об информации представляется делом будущего.

  1. Понятие информации и ее измерение. Виды информации.

Информация – В быту: Сведения об окружающей среде, в технике: сообщения в форме сигналов, хранимые, обрабатываемые, передаваемые.

Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику.  Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными  сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику)

Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он  удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации.

Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но  зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил  Шеннон.

 Количество информации  - это мера уменьшения неопределенности.

1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза.  БИТ- это наименьшая единица измерения информации

Единицы измерения информации: 1байт = 8 бит

1Кб (килобайт) = 210 байт = 1024 байт

1Мб (мегабайт) = 210 Кб = 1024 Кб

1Гб (гигабайт) = 210 Мб = 1024 Мб

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]