Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Laboratornaya_rabota1_2011.docx
Скачиваний:
3
Добавлен:
09.11.2019
Размер:
81.89 Кб
Скачать

Лабораторная работа № 1 Основы теории , структура пк

1.Задание по работе

1.1. Законспектировать незнакомый материал работы в тетрадь.

1.2. Подготовить ответы на вопросы и защитить работу.

2 Основы теории

В дисциплинах информатика, информационных и компьютерных технологиях базовым элементом является понятие информации. Слово информация вошло в русский язык в Петровскую эпоху от латинского informatio, как представление, понятие о чем-либо. Толковый словарь русского языка Ожегова приводит определение информации как сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством. В базовом курсе информатики [1] дается определение информации как продукта взаимодействия данных и адекватных им методов.

Исходя из этого определения данными считаются сигналы, которые человек может воспринимать, регистрировать, запоминать и т.д.. Данные для которых существуют методы (алгоритмы) обработки позволяющие принимать решения называются информацией. Информация позволяет выполнять исследования, анализ, синтез и получать новую информацию (знания).

Вид и тип информации многообразен и зависит от воспринимающих органов человека, регистрирующих приборов. Она может быть в виде света, звука, графики и т.д. Функциональное назначение информации используется для образования, обучения, хранения знаний, как социально образующее, как продукт производства и потребления и др.

Объём информации можно представлять как логарифм количества возможных состояний. (Логарифм числа b по основанию a (от греч. λόγος — «слово», «отношение» и ἀριθμός — «число»]) определяется как показатель степени, в которую надо возвести основание a, чтобы получить число b. Обозначение: .

Например, , потому что , log2 2=1. Наименьшее целое число, логарифм которого положителен — это 2. Это число равное единице— бит —является основой исчислении информации в цифровой технике. Приняты следующие названия:

-1 байт = 8 бит - 100 - 20 ,

-1 килобайт = 1024 байт - 103 - 210,

-1 мегабайт = 1024 Кбайт - 106 - 220,

-1 гигабайт = 1024 Мбайт - 109 - 230,

-1 терабайт = 1024 Гбайт - 1012 - 240,

-1 петабайт = 1024 Тбайт - 1015 - 250,

-1эксабайт(ЕВ) = 1024 Пбайт(PB) - 1018 - 260 ,

-1зеттабайт ( ZB) ) = 1024) ЕВ - 1021 - 270,

-1 йоттабайт (YB) ) = 1024 ZB - 1024 - 280.

Величина (полнота) информации (как и близкая к ней по смыслу энтропия) безразмерна. Энтропия (от греч. ἐντροπία — поворот, превращение) в теории информации - мера неопределённости какого-либо опыта (сообщения), который может иметь разные исходы, а значит и количество информации. Единица измерения — бит/два символа, объясняет, что взаимная энтропия описывает неопределённость на пару символов: отправленного и полученного. Взаимная энтропия обладает свойством информационной полноты.

Обозначение двух состояний по дистрибутивному закону булевой алгебры ( имеются два состояния Х=1 или Х=0) принято, когда есть сигнал - 1, когда нет –О. Значения сигнала с развитием технических средств менялось и в настоящее время составляет 2,5 вольта, т.е. 1 и 0,5 вольта – 0. Наличие двух виртуальных символов (чисел) 1 и 0 позволяет использовать двоичную систему счисления, как основную, при работе ЭВМ (компьютера). Вся информация в компьютере находится в виде электрических напряжений (электромагнитных зарядов). Все сигналы внешней среды (свет, звук, температура и т.д.) преобразуются в приборах и входных платах компьютера в электрические сигналы.

В основу построения подавляющего большинства ПК положены следующие общие принципы, сформулированные в 1945 году американским ученым венгерского происхо­ждения ДЖОНОМ фон НЕЙМАНОМ.

В основе работы компьютера были положены следующие принципы:

1. Принцип двоичного кодирования и арифметического устройства выполняющего одно математическое действие - сложение. Согласно этому принципу, вся информация, по­ступающая в ЭВМ, кодируется с помощью двух сигналов(0,5;2,5 вольт).

2. Принцип программного управления (операционная система), которое должно находится на внешнем устройстве (винчестер) и иметь возможность смены алгоритма управления. Из него следует, что программа состоит из на­бора команд, которые выполняются процессором автоматически друг за другом в опре­деленной последовательности.

3. Принцип разнотипности памяти ЭВМ. Первый тип – быстрая (оперативная, ОЗУ), вторая – более медленная, но значительно большего размера (постоянная, винчестер, ПЗУ).

4. Принцип адресности. Это означает, что структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка.

5. Принцип модульности. Построение отдельных функциональных частей ПК в виде самостоятельных модулей с возможностью замены их на более совершенные.

Машины, построенные на этих принципах, называются Фон-Неймановскими.

Развитие элементной базы компьютеров.

В 40-х и 50-х годах компьютеры создавались на основе электронных ламп. Поэтому компьютеры были очень большими (они занимали огром­ные залы), дорогими и ненадежными -- ведь электронные лампы, как и обычные лампочки, часто перегорают. Но в 1948 г. были изобретены транзисторы -- миниатюрные и недорогие электронные приборы, кото­рые смогли заменить электронные лампы. Это привело к уменьшению размеров компьютеров в сотни раз и повышению их надежности. Пер­вые компьютеры на основе транзисторов появились в конце 50-х годов, а к середине 60-х годов был созданы и значительно более компактные внешние устройства для компьютеров, что позволило фирме Digital Equipment выпустить в 1965 г. первый мини-компьютер PDP-8 размером с холодильник и стоимостью всего 20 тыс. дол. (компьютеры 40-х и 50-х годов обычно стоили миллионы дол.).

После появления транзисторов наиболее трудоемкой операцией при производстве компьютеров было соединение и спайка транзисторов для создания электронных схем. Но в 1959 г. Роберт Нойс (будущий основа­тель фирмы Intel) изобрел способ, позволяющий создавать на одной пластине кремния транзисторы и все необходимые соединения между ними. Полученные электронные схемы стали называться интегральными схемами, или чипами. В 1968 г. фирма Burroughs выпустила первый компьютер на интегральных схемах, а в 1970 г. фирма Intel начала про­давать интегральные схемы памяти.

Появление персональных компьютеров.

Вначале микропроцессоры использовались в различных специализи­рованных устройствах, например, в калькуляторах. Но в 1974 г. не­сколько фирм объявили о создании на основе микропроцессора Intel-8008 персонального компьютера, т.е. устройства рассчитанного на одного пользо­вателя. В начале 1975 г. появился первый коммерчески распространяе­мый персональный компьютер Альтаир-8800 на основе микропроцес­сора Intel-8080. И хотя возможности его были весьма ограничены (оперативная память со­ставляла всего 256 байт, клавиатура и экран отсутствовали), его появле­ние было встречено с большим энтузиазмом: в первые же месяцы было продано несколько тысяч комплектов машины. Пол Аллен и Билл Гейтс (будущие основатели фирмы Microsoft) создали для компьютера «Альтаиро интерпретатор языка Basic, что позволило поль­зователям легко писать для него программы. Успех Альтаир-8800 заставил многие фирмы также заняться произ­водством персональных компьютеров.

Появление IBM PC.

В конце 70-х годов распространение персональных компьютеров даже привело к некоторому снижению спроса на большие компьютеры и мини-компьютеры (мини-ЭВМ). Это стало предметом серьезного беспо­койства фирмы IBM (International Business Machines Corporation) -- ве­дущей компании по производству больших компьютеров, и в 1979 г. фирма IBM решила попробовать свои силы на рынке персональных ком­пьютеров. Было решено не конструи­ровать персональный компьютер «с нуля», а использовать блоки, изго­товленные другими фирмами. Прежде всего, в качестве основного микропроцессора компьютера был выбран новейший тогда 16-разрядный микропроцессор Intel-8088. В компьютере были использованы структуры аналогичных компьюте­ров. Поль­зователи получили возможность самостоятельно модернизировать свои компьютеры и оснащать их дополнительными устройствами сотен раз­личных производителей.

Все это привело к удешевлению IBM PC-совместимых компьютеров и стремительному улучшению их характеристик. Другие комплектующие различных фирм, а его программ­ное обеспечение было поручено разработать небольшой фирме Microsoft.

В августе 1981 г. новый компьютер под названием IBM PC был официально представлен публике и вскоре после этого он приобрел большую популярность у пользователей. Через один - два года компьютер IBM PC занял ведущее место на рынке, вытеснив другие модели.

Если бы IBM PC был сделан так же, как другие существовавшие во время его появления компьютеры, он бы устарел через два-три года. Фирма IBM не сделала свой компьютер единым неразъемным устройством и не стала защищать его конструкцию патентами. Наоборот, она собрала компьютер из независимо изготовленных частей и не стала держать спецификации этих частей и способы их соединения в секрете. Напро­тив, принципы конструкции IBM PC были доступны всем желающим. Этот подход, называемый принципом открытой архитектуры, обеспечил потрясающий успех компьютеру IBM PC, хотя и лишил фирму IBM воз­можности единолично пользоваться плодами этого успеха.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]