Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Вопросы и краткие ответы к экзамену по информат....doc
Скачиваний:
9
Добавлен:
01.08.2019
Размер:
143.87 Кб
Скачать
  1. Теорема Шеннона

«Энтропия мера измерения недостающей информации.

Теорема Шеннона

Скорость передачи информации по каналу связи равна количеству информации, передаваемой в единицу времени: I = ΔQ / Δt. Скорость передачи измеряется в битах в секунду или в бодах (1 бит/с=1 бод). Максимальная скорость передачи информации называется пропускной способностью канала связи: Imax = ΔQmax / Δt

Пусть источник с энтропией H передаёт эту информацию за время Δt по каналу с пропускной способностью Imax. Тогда, если H/ Δt <= Imax , то это количество информации может быть передано без искажений. Если, наоборот, H/ Δt > Imax, то передача информации без искажений невозможна. Это утверждение называется теоремой Шеннона (первой). Она накладывает ограничение на максимальную скорость передачи информации.»

  1. Основные этапы развития информатики и вычислительной техники.

«В истории развития цивилизации произошло несколько информационных революций – преобразований общественных отношений из-за кардинальных изменений в сфере обработки информации.

Первая – изобретение письменности, появилась возможность передачи знаний от поколения к поколению.

Вторая – (середина XVI в.) - изобретение книгопечатания, радикально изменилось индустриальное общество, культура, организация деятельности.

Третья (конец XIX в.) – изобретение электричества (телеграф, радио, телефон), появилась возможность оперативно передавать и накапливать информацию в любом объеме.

Четвертая (70-е гг. ХХ в.) – изобретение микропроцессорной технологии, появление персонального компьютера, характеризуется тремя инновациями: переход от механических и электрических средств преобразования информации к электронным; миниатюризация всех узлов, устройств, приборов и машин; создание программно-управляемых устройств и процессов.»

  1. Состав и назначение основных элементов пк.

«Общие принципы функционирования компьютеров, сформулировал Джон фон Нейман в 1945 году.

Основными блоками по Нейману являются следующие устройства:

  • Арифметико-логическое устройство (АЛУ), выполняющее арифметические и логические операции;

  • Устройство управления (УУ), которое организует процесс выполнения программ;

  • Запоминающее устройство (ЗУ), или память для хранения программ и данных.

  • Устройства для ввода-вывода информации.»

Или:

«Персональный компьютер (ПК) – комплекс взаимосвязанных устройств, каждому из которых поручена определенная функция. Он включает в себя: системный блок, монитор (дисплей), клавиатура, манипуляторы (мышь, джойстик) соединенные кабелями или беспроводной связью.

В системном блоке расположены основные аппаратные компоненты ПК: материнская (системная) плата, процессор, память, адаптеры (контроллеры) внешних устройств, дисководы для гибких и оптических дисков, дисководы на жестком магнитном диске («винчестеры»), органы управления (выключатели, кнопка сброса, индикаторы питания и режимов работы).

Каждый из функциональных элементов (память, монитор или другое устройство) связан с шиной определенного типа – адресной, управляющей или шиной данных. Для согласования интерфейсов периферийные устройства подключаются к шине через контроллеры и порты.»