Лабораторная работа № 1 Основы теории , структура пк
1.Задание по работе
1.1. Законспектировать незнакомый материал работы в тетрадь.
1.2. Подготовить ответы на вопросы и защитить работу.
2 Основы теории
В дисциплинах информатика, информационных и компьютерных технологиях базовым элементом является понятие информации. Слово информация вошло в русский язык в Петровскую эпоху от латинского informatio, как представление, понятие о чем-либо. Толковый словарь русского языка Ожегова приводит определение информации как сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством. В базовом курсе информатики [1] дается определение информации как продукта взаимодействия данных и адекватных им методов.
Исходя из этого определения данными считаются сигналы, которые человек может воспринимать, регистрировать, запоминать и т.д.. Данные для которых существуют методы (алгоритмы) обработки позволяющие принимать решения называются информацией. Информация позволяет выполнять исследования, анализ, синтез и получать новую информацию (знания).
Вид и тип информации многообразен и зависит от воспринимающих органов человека, регистрирующих приборов. Она может быть в виде света, звука, графики и т.д. Функциональное назначение информации используется для образования, обучения, хранения знаний, как социально образующее, как продукт производства и потребления и др.
Объём информации можно представлять как логарифм количества возможных состояний. (Логарифм числа b по основанию a (от греч. λόγος — «слово», «отношение» и ἀριθμός — «число»]) определяется как показатель степени, в которую надо возвести основание a, чтобы получить число b. Обозначение: .
Например, , потому что , log2 2=1. Наименьшее целое число, логарифм которого положителен — это 2. Это число равное единице— бит —является основой исчислении информации в цифровой технике. Приняты следующие названия:
-1 байт = 8 бит - 100 - 20 ,
-1 килобайт = 1024 байт - 103 - 210,
-1 мегабайт = 1024 Кбайт - 106 - 220,
-1 гигабайт = 1024 Мбайт - 109 - 230,
-1 терабайт = 1024 Гбайт - 1012 - 240,
-1 петабайт = 1024 Тбайт - 1015 - 250,
-1эксабайт(ЕВ) = 1024 Пбайт(PB) - 1018 - 260 ,
-1зеттабайт ( ZB) ) = 1024) ЕВ - 1021 - 270,
-1 йоттабайт (YB) ) = 1024 ZB - 1024 - 280.
Величина (полнота) информации (как и близкая к ней по смыслу энтропия) безразмерна. Энтропия (от греч. ἐντροπία — поворот, превращение) в теории информации - мера неопределённости какого-либо опыта (сообщения), который может иметь разные исходы, а значит и количество информации. Единица измерения — бит/два символа, объясняет, что взаимная энтропия описывает неопределённость на пару символов: отправленного и полученного. Взаимная энтропия обладает свойством информационной полноты.
Обозначение двух состояний по дистрибутивному закону булевой алгебры ( имеются два состояния Х=1 или Х=0) принято, когда есть сигнал - 1, когда нет –О. Значения сигнала с развитием технических средств менялось и в настоящее время составляет 2,5 вольта, т.е. 1 и 0,5 вольта – 0. Наличие двух виртуальных символов (чисел) 1 и 0 позволяет использовать двоичную систему счисления, как основную, при работе ЭВМ (компьютера). Вся информация в компьютере находится в виде электрических напряжений (электромагнитных зарядов). Все сигналы внешней среды (свет, звук, температура и т.д.) преобразуются в приборах и входных платах компьютера в электрические сигналы.
В основу построения подавляющего большинства ПК положены следующие общие принципы, сформулированные в 1945 году американским ученым венгерского происхождения ДЖОНОМ фон НЕЙМАНОМ.
В основе работы компьютера были положены следующие принципы:
1. Принцип двоичного кодирования и арифметического устройства выполняющего одно математическое действие - сложение. Согласно этому принципу, вся информация, поступающая в ЭВМ, кодируется с помощью двух сигналов(0,5;2,5 вольт).
2. Принцип программного управления (операционная система), которое должно находится на внешнем устройстве (винчестер) и иметь возможность смены алгоритма управления. Из него следует, что программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.
3. Принцип разнотипности памяти ЭВМ. Первый тип – быстрая (оперативная, ОЗУ), вторая – более медленная, но значительно большего размера (постоянная, винчестер, ПЗУ).
4. Принцип адресности. Это означает, что структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка.
5. Принцип модульности. Построение отдельных функциональных частей ПК в виде самостоятельных модулей с возможностью замены их на более совершенные.
Машины, построенные на этих принципах, называются Фон-Неймановскими.
Развитие элементной базы компьютеров.
В 40-х и 50-х годах компьютеры создавались на основе электронных ламп. Поэтому компьютеры были очень большими (они занимали огромные залы), дорогими и ненадежными -- ведь электронные лампы, как и обычные лампочки, часто перегорают. Но в 1948 г. были изобретены транзисторы -- миниатюрные и недорогие электронные приборы, которые смогли заменить электронные лампы. Это привело к уменьшению размеров компьютеров в сотни раз и повышению их надежности. Первые компьютеры на основе транзисторов появились в конце 50-х годов, а к середине 60-х годов был созданы и значительно более компактные внешние устройства для компьютеров, что позволило фирме Digital Equipment выпустить в 1965 г. первый мини-компьютер PDP-8 размером с холодильник и стоимостью всего 20 тыс. дол. (компьютеры 40-х и 50-х годов обычно стоили миллионы дол.).
После появления транзисторов наиболее трудоемкой операцией при производстве компьютеров было соединение и спайка транзисторов для создания электронных схем. Но в 1959 г. Роберт Нойс (будущий основатель фирмы Intel) изобрел способ, позволяющий создавать на одной пластине кремния транзисторы и все необходимые соединения между ними. Полученные электронные схемы стали называться интегральными схемами, или чипами. В 1968 г. фирма Burroughs выпустила первый компьютер на интегральных схемах, а в 1970 г. фирма Intel начала продавать интегральные схемы памяти.
Появление персональных компьютеров.
Вначале микропроцессоры использовались в различных специализированных устройствах, например, в калькуляторах. Но в 1974 г. несколько фирм объявили о создании на основе микропроцессора Intel-8008 персонального компьютера, т.е. устройства рассчитанного на одного пользователя. В начале 1975 г. появился первый коммерчески распространяемый персональный компьютер Альтаир-8800 на основе микропроцессора Intel-8080. И хотя возможности его были весьма ограничены (оперативная память составляла всего 256 байт, клавиатура и экран отсутствовали), его появление было встречено с большим энтузиазмом: в первые же месяцы было продано несколько тысяч комплектов машины. Пол Аллен и Билл Гейтс (будущие основатели фирмы Microsoft) создали для компьютера «Альтаиро интерпретатор языка Basic, что позволило пользователям легко писать для него программы. Успех Альтаир-8800 заставил многие фирмы также заняться производством персональных компьютеров.
Появление IBM PC.
В конце 70-х годов распространение персональных компьютеров даже привело к некоторому снижению спроса на большие компьютеры и мини-компьютеры (мини-ЭВМ). Это стало предметом серьезного беспокойства фирмы IBM (International Business Machines Corporation) -- ведущей компании по производству больших компьютеров, и в 1979 г. фирма IBM решила попробовать свои силы на рынке персональных компьютеров. Было решено не конструировать персональный компьютер «с нуля», а использовать блоки, изготовленные другими фирмами. Прежде всего, в качестве основного микропроцессора компьютера был выбран новейший тогда 16-разрядный микропроцессор Intel-8088. В компьютере были использованы структуры аналогичных компьютеров. Пользователи получили возможность самостоятельно модернизировать свои компьютеры и оснащать их дополнительными устройствами сотен различных производителей.
Все это привело к удешевлению IBM PC-совместимых компьютеров и стремительному улучшению их характеристик. Другие комплектующие различных фирм, а его программное обеспечение было поручено разработать небольшой фирме Microsoft.
В августе 1981 г. новый компьютер под названием IBM PC был официально представлен публике и вскоре после этого он приобрел большую популярность у пользователей. Через один - два года компьютер IBM PC занял ведущее место на рынке, вытеснив другие модели.
Если бы IBM PC был сделан так же, как другие существовавшие во время его появления компьютеры, он бы устарел через два-три года. Фирма IBM не сделала свой компьютер единым неразъемным устройством и не стала защищать его конструкцию патентами. Наоборот, она собрала компьютер из независимо изготовленных частей и не стала держать спецификации этих частей и способы их соединения в секрете. Напротив, принципы конструкции IBM PC были доступны всем желающим. Этот подход, называемый принципом открытой архитектуры, обеспечил потрясающий успех компьютеру IBM PC, хотя и лишил фирму IBM возможности единолично пользоваться плодами этого успеха.