Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
16
Добавлен:
10.03.2024
Размер:
213.49 Кб
Скачать

1. Понятие информации в теории Клода Шеннона

2. Понятие энтропии и его связь с информацией. Принцип Ландауэра

3. Элементарная схема передачи информации

4. Информация в теории Норберта Винера (кибернетике)

5. Современный этап развития теории информации

6. Понятие информации в различных областях знания

7. Основные концепции понимания сущности информации

8. Соотношение понятий «информация», «сообщения», «сигналы», «сведения», «данные», «знания»

9. Социальная информация и ее основные характеристики. Функции социальной информации

10. Атрибутивные свойства информации

11. Прагматические свойства информации

12. Измерение количества информации. Меры информации синтаксического уровня

13. Меры информации семантического и прагматического уровней

14. Формы представления социальной информации. Механизм материализации социальной информации в документе

15. Знаки и знаковые системы. Виды языков по пространственному представлению

16. Документированная информация и ее важнейшие характеристики

17. Информационные процессы в социодокументной сфере

18. Виды социальной информации

19. Понятие информационных ресурсов. Взаимосвязь понятий «информационные ресурсы», «электронные информационные ресурсы», «библиотечно-библиографические ресурсы»

20. Специфика информационных ресурсов по сравнению с материальными и энергетическими ресурсами. Свойства информационных ресурсов

21. Функции и принципы информационных ресурсов

22. Видовая классификация информационных ресурсов

23. Роль ИР в развитии современного общества

24. Законы и закономерности информации и коммуникации

25. Генезис и развитие понятия «коммуникация». Определения коммуникации в разных областях знания

26. Соотношение понятий «коммуникация», «социальная коммуникация», «общение», «диалог»

27. Трансляционный и интеракционный подходы к пониманию коммуникации

28. Проблема коммуникации в герменевтике, семиотике, бихевиоризме

29. Проблема коммуникации в экзистенциализме, персонализме, лингвистической философии, символическом интеракционизме

30. Коммуникации в научных и философских теориях второй половины ХХ века (теории социального обмена, теория информационного общества и др.)

31. Теории массовой коммуникации

32. Современные концепции понимания сущности коммуникации

(риторическая, кибернетическая, семиотическая и др.).

33. Коммуникация и коммуникативные процессы в постмодернизме

34. Биологические основы эволюции социальной коммуникации

35. Технологический фактор эволюции социальных коммуникаций

36. Эволюция социальной коммуникации в контексте общего развития культуры и цивилизации

37. Коммуникативный процесс и его линейные модели

38. Нелинейные модели коммуникации

39. Коммуникативные барьеры

40. Функции коммуникации

41. Уровни социальной коммуникации и их характеристика

42. Вербальные и невербальные коммуникации

43. Формы коммуникативной деятельности

44. Коммуникативные каналы

45. Социальные сферы коммуникации

1. Понятие информации в теории Клода Шеннона

Шеннон дал определение информации как снимаемой, уничтожаемой неопределенности. Эту неопределенность можно представить в виде разнообразия исходов (вариантов) некоторого события или в виде разнообразий состояния системы. Информация, по Шеннону, это такие сообщения, которые уменьшают или полностью снимают неопределенность в выборе одной из

возможных альтернатив. В качестве единицы информации Шеннон предложил использовать слово «бит».

Например, при подбрасывании монеты возникает неопределенность, которая выражается в двух возможных исходах ситуации – «орел» либо «решка». Сообщение о том, что монета упала «решкой», полностью снимает неопределенность. Полученная при этом информация равна 1 биту. Именно столько информации требуется для снятия неопределенности в ситуации двух равновероятных исходов события («да» или «нет», «1» или «0» и т.п.). Таким образом, бит можно определить как один разряд двоичного кода, который может принимать только два взаимоисключающих значения «да» или «нет», «1» или «0», «включено» или «выключено». В технике связи значения «1» или «0» обычно передаются различными уровнями или напряжения, или тока. Аналогом бита в квантовых компьютерах является кубит.

Однако не все события происходят с одинаковой вероятностью, и Шеннон связывает информативность сообщения с его новизной и неожиданностью: чем выше вероятность какого-либо события, тем меньше информации содержит сообщение о таком событии. Формула вычисления количества информации Шеннона, в которой информация возрастает с уменьшением вероятности отдельного сообщения, стала знаменитой:

где I – количество информации; N – количество возможных событий; рi – вероятность i-го события.

Большая часть используемой нами информации сообщается с помощью языка. Поэтому Шеннон ассматривал информацию, которую содержат символы в сообщении. Каждый новый символ несет информацию, и она связана с вероятностью его появления. Если символ в потоке встречается редко, то его появление несет больше информации, если часто – то меньше. Информация, добавленная каждым новым символом – это, по формуле Шеннона, логарифм от вероятности его появления. Основание логарифма – количество символов в используемом алфавите; если имеется только ноль и единица, то логарифм по основанию два.

Чем более хаотичный поток генерирует источник информации, тем выше изначальная неопределенность, которую Шеннон назвал энтропией. Энтропия стала базисным понятием теории информации. Ситуация максимальной неопределенности (энтропии) предполагает наличие нескольких равновероятных альтернатив. Энтропия в случае брошенного игрального кубика выше, чем в случае брошенной монеты. Чем больше равновероятных вариантов, тем больше неопределенность, и, соответственно, тем больше информации содержится в сообщении, снимающем неопределенность. Когда энтропия снята полностью, количество полученной информации равно изначально существовавшей энтропии.

2. Понятие энтропии и его связь с информацией. Принцип Ландауэра

В термодинамике состояние физической системы характеризуется определёнными значениями плотности, давления, температуры и других измеримых величин. Перечисленные величины определяют состояние системы в целом (её макросостояние). Однако при одной и той же плотности, температуре и т.д. частицы системы могут различными способами распределиться в пространстве и иметь различные импульсы. Каждое данное распределение частиц называется микросостоянием системы. Энтропия определяется логарифмом числа микросостояний, с помощью которых может быть реализовано данное макросостояние, т.е. логарифмом количества всевозможных скоростей и положений мелких частиц, приводящих к тому же описанию системы в большом масштабе. Следовательно, энтропия может рассматриваться как мера вероятности состояния термодинамической системы. Менее упорядоченное состояние (больший хаос) имеет больший статистический вес, т. к. оно может быть реализовано большим числом способов. Отсюда возникло представление об энтропии как мере неупорядоченности систем, мере хаоса.

Чем более хаотичный поток генерирует источник информации, тем выше изначальная неопределенность, которую Шеннон назвал энтропией. Энтропия стала базисным понятием теории информации. Ситуация максимальной неопределенности (энтропии) предполагает наличие нескольких равновероятных альтернатив. Энтропия в случае брошенного игрального кубика выше, чем в случае брошенной монеты. Чем больше равновероятных вариантов, тем больше неопределенность, и, соответственно, тем больше информации содержится в сообщении, снимающем неопределенность. Когда энтропия снята полностью, количество полученной информации равно изначально существовавшей энтропии.

Принцип Ландауэра: в любой вычислительной системе, независимо от её физической реализации, при потере 1 бита информации выделяется теплота в количестве по крайней мере W джоулей:

где k — константа Больцмана, T — абсолютная температура вычислительной системы в кельвинах.

Принцип Ландауэра является своеобразным отражением второго закона термодинамики, закона неубывания энтропии: создание–уничтожение бита информации сопровождается соответствующим изменением энтропии. В самом деле, если в начале опыта мы имеем ячейку памяти, которая с равной вероятностью может содержать 0 или 1, у нас имеется некая ненулевая энтропия (мера беспорядка). Если далее мы сотрем информацию, переводя значение бита в 1, вне зависимости от его исходного состояния, энтропия ячейки станет равной нулю (у нас ведь появится полная определенность). При этом информация разрушается, поскольку нет возможности узнать предыдущее значение ячейки. По законам термодинамики эта потерянная энтропия должна быть передана внешней системе в виде тепла.

Соседние файлы в папке Экзамен_1_семестр_фидк