Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Konsp_Arkh_EVM (1).doc
Скачиваний:
5
Добавлен:
10.09.2019
Размер:
2.62 Mб
Скачать

92

Федеральное агентство по образованию и науке рф государственное образовательное учреждение высшего

ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ

РГРТУ

КАФЕДРА АСУ

Электронный конспект лекций по дисциплине

«Архитектура ЭВМ и систем»

Малинин Ю.И.

Рязань 2006

1. Предмет и задачи курса

В настоящее время широкое распространение получили информационные технологии. Одним из основных понятий, связанных с информационными технологиями является понятие информационного процесса, под которым подразумевается процесс обработки, хранения, передачи информации. Информация, с которой оперируют данные информационные процессы, требуется для организации управления каким либо объектом или физическим процессом. Данное управление, как правило, можно представить через взаимодействие системы управления [СУ] и объекта управления [ОУ] ( рис. 1).

Рисунок 1. Организация управления

Объект управления через информационный канал передаёт сведения системе управления, которая, в свою очередь анализируя поступившую информацию, вырабатывает некоторый управляющий сигнал и воздействует им на объект управления через канал управления.

Под информацией в данном контексте понимается совокупность сведений, подлежащих обработке, преобразованию, передаче и хранению. К используемой в информационных системах информации предъявляется ряд требований:

  • достоверность;

  • оперативность;

  • эффективность (экономичность).

Иногда для принятия некоторого управляющего решения требуется проанализировать и переработать большое количество информации, поэтому в сфере управления широкое распространение получило использование ЭВМ.

Целью данного курса является рассмотрение принципов организации и функционирования ЭВМ с точки зрения архитектуры.

2. Мера информации

С самого начала развития информационных технологий ученые задумывались, над вопросом измерения количества информации, содержащейся в некотором сообщении. В результате работ в данной области были выделены следующие меры информации:

  • Статистическая мера информации;

  • Семантическая мера информации;

  • Прагматическая мера информации;

  • Структурная мера информации.

СТАТИСТИЧЕСКАЯ подразумевает измерение количества информации в информационном сообщении с точки зрения статистики. В данном подходе утверждается, что количество информации содержащееся в сообщении зависит от длинны сообщения и используемого алфавита, и находится следующей зависимости от вышеописанных параметров:

I = n*log2 m, где I- количество информации, n- длинна сообщения, m – число символов алфавита. Данная мера получила название мера ХАРТЛИ по имени ученого, занимающегося этими исследованиями. Если взять сообщение длинной один символ, представленное при использовании двоичного алфавита то вышеописанная формула примет следующий вид:

I = 1*log2 2 , вычислив данное выражение получим, что I= 1. данная двоичная единица информации была названа БИТ. То есть в данном случае можно сказать, что количество переносимой информации одним символом двоичного алфавита равно 1 БИТ. Данная единица является очень маленькой, поэтому были введены более крупные единицы:

  • Байт [8 БИТ];

  • Полуслово[16 БИТ];

  • Слово[32 БИТа];

  • двойное слово[64 БИТа];

  • расширенное слово[128 БИТ].

Другим подходом к измерению количества информации является подход, предложенный ученым Шенноном. В данном подходе говорится о том, что чем реже встречается данная буква алфавита, тем большую информацию она в себе несет.

Предположим что имеется алфавит из m символов, и каждый символ имеет свою вероятность использования.

a1, a2 …, am

p1,p2,…,pm.

Таким образом количество информации, переносимой i-ым символом алфавита равно Iai = log2 1/pi .

Если предположить, что появление всех букв в сообщении равновероятно, то есть Pi = const, то формула вычисления количества информации примет следующий вид:

pi= 1/m, Iai = log2 1/(1/m) = log2 m.

В данном случае если требуется подсчитать количество информации, содержащейся в сообщении длинной nсимволов то нужно просто получившийся результат количества информации на одну букву умножить на n.

Но не всегда можно принять вероятности появления символов одинаковыми, так как в реальности между ними присутствует корреляция. Например возьмем слово из n символов:

a1

a2

a3

a4

an

То количество информации, содержащееся сообщение можно представить в виде суммы: I= n1*log21/p1+ n2*log21/p2+ n3*log21/p3+ nn*log21/pn , где ni – количество букв ai в слове. В этом случае для упрощения, вводят обобщенную меру информации, называемую энтропией источника информации, представляющую собой среднее количество информации, приходящееся на одну букву :

HA=/////////////

Теперь для подсчета количества информации можно использовать формулу I= n*HA .

СЕМАНТИЧЕСКАЯ мера информации связана с процессом познания. То есть чем меньше мы знаем о каком либо объекте, тем больше информации несет каждое новое сообщение о нем. Зависимость количества информации, переносимого сообщением от количества накопленных знаний представлена на рисунке 2. S- тезаурус источника информации, то есть то столько информации предварительно накоплено. Данная мера не используется в вычислительной технике, так как не имеет достаточно точной формализации.

Рисунок 2. Процесс познания

Пусть P1 – вероятность достижения цели до получения информации, а P2 вероятность достижения цели после получения некоторой информации об объекте управления. Тогда количество информации высчитывается в соответствии со следующим соотношением :

I = log P2/P1 и представляет собой то на сколько получение новой информации об объекте управления увеличило вероятность достижения цели управления. Данная мера информации широко используется в системах управления.

СТРУКТУРНАЯ мера информации связана с объемом запоминающих устройств, куда поступает информация. Структурная мера характеризует объем памяти.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]