Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекц для студенов.doc
Скачиваний:
26
Добавлен:
24.08.2019
Размер:
1.39 Mб
Скачать

1.2. Понятие «информация»

1.2.1. Определение информации

Информация – это фундаментальное понятие науки, очень ёмкое и глубокое, которое невозможно определить однозначно. Термин «информация» происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Учёные пользуются не определением информации, а понятием информации. Причем каждая наука вкладывает в это понятие только те компоненты, которые соответствуют её предмету и задачам.

  • в математике информация – это сведения, которые человек создаёт с помощью умозаключений.

  • в биологии информация – это генетический код человека.

  • в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. «информировать» в этом смысле означает «сообщить нечто, неизвестное раньше»;

  • в толковом словаре Ожегова информация – это сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством

  • в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

  • в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).

  • Клод Шеннон, американский учёный, заложивший основы теории информации — науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, — рассматривает информацию как снятую неопределенность наших знаний о чем-то.

  • с точки зрения кибернетических систем информация рассматривается как обозначение содержание сигнала, полученного системой из окружающего мира в процессе взаимодействия системы с ним (Н. Винер).

Существование множества определений информации обусловлено сложностью, специфичностью и многообразием подходов к толкованию сущности этого понятия. Существуют 3 наиболее распространенные концепции информации, каждая из которых по-своему объясняет ее сущность.

Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем. Этот подход, хоть и не учитывает смысловую сторону информации, оказался весьма полезным в технике связи и вычислительной технике и послужил основой для измерения информации и оптимального кодирования сообщений. Кроме того, он представляется удобным для иллюстрации такого важного свойства информации, как новизна, неожиданность сообщений. При таком понимании информация - это снятая неопределенность, или результат выбора из набора возможных альтернатив.

Вторая концепция рассматривает информацию как свойство материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. То есть, информация как свойство материи создает представление о ее природе и структуре, упорядоченности и разнообразии. Она не может существовать вне материи, а значит, она существовала и будет существовать вечно, ее можно накапливать, хранить и перерабатывать.

Третья концепция основана на логико-семантическом подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентирования, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная часть знаний.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.д.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объем сообщения.

Наряду с понятием «информация» в информатике часто встречается и употребление понятия «данные», которые по своей природе являются объективными. Данные - это результаты наблюдений за объектами и явлениями, которые только хранятся. Если их использовать в практике, то они становятся «информацией». Т.е., чтобы извлечь информацию из данных, необходимо применить метод получения информации, адекватный форме представления данных.

Если говорить о соотношении информации и знаний, то понятие «знание» можно охарактеризовать как «научное знание – вся совокупность сведений, являющаяся результатом отражения материальной и нематериальной действительности в человеческом сознании» (А.Д. Урсул). Получая информацию, пользователь превращает ее путем интеллектуального усвоения в свои личностные знания. Тогда как информация выступает как динамическая форма существования знания, отчужденная от его носителя и обеспечивающая его распространение и применение.

Знания бывают двух видов:

- декларативные, отвечают на вопрос «Я знаю, что …». К этой группе относятся знания об определённых явлениях, событиях, свойствах объектов, зависимостях. Например, адрес человека, который включает название города, улицы, номер дома и квартиры и т.д.

- процедурные, отвечают на вопрос «Я знаю как …». Они определяют действия для достижения какой-либо цели. Если рассматривать пример с местом проживания конкретного человека, то можно не знать точного адреса, но помнить маршрут до пункта назначения.