Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ИКТ.doc
Скачиваний:
3
Добавлен:
15.04.2019
Размер:
912.38 Кб
Скачать

№11 Персональный компьютер, его архитектура, назначение, функции и характеристики основных устройств.

Информационные технологии(ИТ) - совокупность методов применения телекоммуникационного оборудования, компьютеров, полупроводниковых элементов и оборудования для их производства, программного обеспеченья и научных приборов. Технические и программные средства являются составными частями предметной области информатики. Конкретный набор взаимодействующих между собой устройств и программ – вычислительная система. Центральным устройством большинства вычислительных систем является компьютер. Компьютер – это электронный прибор, предназначенный для автоматизации создания, хранения, обработки и транспортировки данных. Программа - упорядоченная последовательность команд. Конечная цель компьютерной программы – управление аппаратными средствами. В действующем законодательстве РФ программа для ЭВМ - объективная форма представления совокупности данных и команд, предназначенных для функционирования электронных вычислительных машин(ЭВМ) и других компьютерных устройств с целью получения определенного результата.

Персональный компьютер. ПК – вычислительные машины, предназначенные для частного пользователя. ПК включает следующие компоненты: 1) центральный процессор – микросхема, предназначенная для выполнения основных операций по обработке данных и управлении работы других устройств(основные параметры процессора – разрядность, тактовая частота, размер кэш памяти); 2) внутренняя память, включающая постоянно запоминающее устройство(ПЗУ) и основную память или оперативное запоминающее устройство(ОЗУ). ПЗУ(ROM) – микросхема, используется для хранения данных, которые не потребуют изменения, данные можно только считывать, в основной или оперативной памяти хранятся исполняемые программы и обрабатываемые данные; 3 внешняя память – противоположная основной – медленная, постоянная, неограниченная; 4 периферийные устр-ва – с их помощью комп. принимает и передает информацию(периферийные устр-ва – устр-ва ввода данных, вывода данных(принтер), хранение данных и устр-ва обмена информации. Также ПК- Системный блок, клавиатура, монитор, мышь. Системный блок- электронная часть комп., блок питания, устр-ва для хранения информации. Внутри Сист. Блока – процессор, оперативная память, накопители на магн. дисках и DVD-ROM.

№12 Единица измерения информации средства хранения информации.

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

Определить понятие “количество информации” довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к “объемному” подходу.

Вероятностный подход

Подход к информации как мере уменьшения неопределенности знаний позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Рассмотрим вопрос об определении количества информации более подробно на конкретных примерах.

Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка».

Можно говорить, что события равновероятны, если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются. Например, если мы бросим монету 10 раз, то «орел» может выпасть 7 раз, а решка — 3 раза, если бросим монету 100 раз, то «орел» может выпасть 60 раз, а «решка» — 40 раз, если бросим монету 1000 раз, то «орел» может выпасть 520 раз, а «решка» — 480 и так далее.

В итоге при очень большой серии опытов количества выпадений «орла» и «решки» практически сравняются.

Перед броском существует неопределенность наших знаний (возможны два события), и, как упадет монета, предсказать невозможно. После броска наступает полная определенность, так как мы видим (получаем зрительное сообщение), что монета в данный момент находится в определенном положении (например, «орел»). Это сообщение приводит к уменьшению неопределенности наших знаний в два раза, так как до броска мы имели два вероятных события, а после броска — только одно, то есть в два раза меньше.

Объемный подход

В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binary digiTs – двоичные цифры). Создатели компьютеров отдают предпочтение именно двоичной системе счисления, потому что в техническом устройстве наиболее просто реализовать два противоположных физических состояния. Например: некоторый физический элемент, имеющий два различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т.п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Группа из 8 битов информации называется байтом. Если бит — минимальная единица информации, то байт ее основная единица. Существуют производные единицы информации: килобайт (кбайт, кб), мегабайт (Мбайт, Мб) и гигабайт (Гбайт, Гб).

1 кб = 1024 байта = 210 (1024) байтов. 1 Мб = 1024 кбайта = 220 (1024 х 1024) байтов.

1 Гб = 1024 Мбайта = 230 (1024 х 1024 х 1024) байтов.

Эти единицы чаще всего используют для указания объема памяти ЭВМ.

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.

Средства хранения информации

Немногие носители информации дошли до наших дней. Появились средства хранения информации, которые по разным причинам не получили широкого распространения.