- •1. Общие представления об информации
- •4. Единицы информации. Производные единицы.
- •9. Основные типы файловых систем
- •7. Электронная память пк.
- •10. Представление информации в цифровых автоматах.
- •15. Общие и сетевые настройки операционной системы ms Windows.
- •17. Программные оболочки дос.
- •21. Основные алгоритмические конструкции и типы данных в Delphi.
- •22. Объектно-ориентированное программирование в среде Delphi.
1. Общие представления об информации
Информатика - это наука, изучающая структуру и наиболее общие свойства информации, ее поиск, хранение, передачу и обработку с применением ЭВМ.
Информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии. Наименьшее количество информации, снимающей неопределенность системы с двумя равновероятностными состояниями, равно одному биту.
Сигнал – физический процесс ), несущий сообщение о событии или состоянии объекта наблюдения. Сообщение – форма представления информации в виде совокупности знаков, используемая для передачи. Перенос информации источника на структуру носителя называется кодированием.
1 бит (bit - сокращение от англ. binary digit - двоичное число) - единица измерения информационной емкости и количества информации.
На физическом уровне бит является ячейкой памяти, которая в каждый момент времени находится в одном из двух состояний: «0» или «1».
Байт (byte) 8 бит
Слово (word) 2 байта или 16 бит.
2. Кибернетический, семантический и объемный подходы к измерению информации.
Кибернетический: Данный подход основан на подсчёте числа символов в сообщении. Этот подход не связывает количество информации с содержанием сообщения, позволяет реализовать передачу, хранение и обработку информации с помощью технических устройств, не теряя содержания (смысла).
Алфавит любого языка включает в себя конечный набор символов. Исходя из вероятностного подхода к определению количества информации, набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события) N. N при алфавитном подходе называют мощностью алфавита. Информационная ёмкость каждого знака зависит от количества знаков в алфавите. Следовательно, каждый из N символов несёт i бит информации.
2i = N
Остаётся подсчитать количество символов в тексте сообщения: I = k*i
Алфавитный подход является объективным способом измерения информации и подходит для работы технических устройств.
Объемный: С точки зрения аппаратной организации компьютера бит, очевидно, является наименьшей возможной единицей информации. Объем же информации в некотором тексте, записанном двоичными знаками в памяти компьютера (или на внешнем носителе информации) подсчитывается чрезвычайно просто, по количеству двоичных символов. При этом, в частности, невозможно нецелое количество битов (в отличие от кибернетического подхода).
Для удобства использования введены более крупные чем бит единицы количества информации. Двоичное слово из восьми знаков (и количество информации, содержащейся в нем) называется байт. 1024 байта образуют килобайт (Кбайт), 1024 килобайта - мегабайт (Мбайт), а 1024 мегабайта - гигабайт (Гбайт).
Семантический: Учитывает целесообразность и полезность информации. Применяется при оценке эффективности получаемой информации и ее соответствия реальности.
В рамках этого подхода рассмотрим такие меры, как целесообразность, полезность и истинность информации.
5. Формулы Р.Хартли, К.Шеннона.
В 1928 г. американский инженер Р. Хартли предложил научный подход к оценке сообщений. Предложенная им формула имела следующий вид:
I = log2 K ,
Где К - количество равновероятных событий; I - количество бит в сообщении, такое, что любое из К событий произошло. Тогда K=2I.
Иногда формулу Хартли записывают так:
I = log2 K = log2 (1 / р) = - log2 р,
т. к. каждое из К событий имеет равновероятный исход р = 1 / К, то К = 1 / р.
В 1948 г. американский инженер и математик К Шеннон предложил формулу для вычисления количества информации для событий с различными вероятностями.
Если I - количество информации,
К - количество возможных событий,
рi - вероятности отдельных событий,
то количество информации для событий с различными вероятностями можно определить по формуле:
I = - Sum рi log2 рi,
где i принимает значения от 1 до К.
Формулу Хартли теперь можно рассматривать как частный случай формулы Шеннона:
I = - Sum 1 / К log2 (1 / К) = I = log2 К.
При равновероятных событиях получаемое количество информации максимально.
6. Кодирование информации.
Кодирование информации – это процесс формирования определенного представления информации.
Двоичное кодирование текстовой информации
Традиционно для кодирования одного символа используется количество информации равное1 байту (1 байт = 8 битов).
Для кодирования одного символа требуется один байт информации.
Учитывая, что каждый бит принимает значение 1 или 0, получаем, что с помощью 1 байта можно закодировать 256 различных символов. (28=256)
Кодирование заключается в том, что каждому символу ставиться в соответствие уникальный двоичный код от 00000000 до 11111111 (или десятичный код от 0 до 255).
Кодирование графической информации
принципы кодирования монохромного изображения, то есть изображения, состоящего из любых двух контрастных цветов – черного и белого, зеленого и белого, коричневого и белого и т. д. Для простоты обсуждения будем считать, что один из цветов – черный, а второй – белый. Тогда каждый пиксел изображения может иметь либо черный, либо белый цвет. Поставив в соответствие черному цвету двоичный код "0”, а белому – код "1”, мы сможем закодировать в одном бите состояние одного пикселя монохромного изображения. А так как байт состоит из 8 бит, то на строчку, состоящую из 640 точек, потребуется 80 байтов памяти, а на все изображение – 38 400 байтов. Общепринятым на сегодняшний день, дающим достаточно реалистичные монохромные изображения, считается кодирование состояния одного пикселя с помощью одного байта, которое позволяет передавать 256 различных оттенков серого цвета от полностью белого до полностью черного. В этом случае для передачи всего растра из 640x480 пикселов потребуется уже не 38 400, а все 307 200 байтов.
Цветное изображение может формироваться различными способами. Один из них – метод RGB (от слов Red, Green, Blue – красный, зеленый, синий), который опирается на то, что глаз человека воспринимает все цвета как сумму трех основных цветов – красного, зеленого и синего. при данной схеме кодирования цвета на изображение одного пикселя требуется 3 байта, или 24 бита, памяти. Этот способ представления цветной графики принято называть режимом True Color (true color – истинный цвет) или полноцветным режимом.
3. Использование систем счисления в программировании.
В позиционной системе счисления любое вещественное число может быть
представлено в следующем виде:
Aq=±(an-1*qn-1+an-2*qn-2+...+a0*q0+a-1*q-1+a-2*q-2+...+a-m*q-m)
или
1012 = 1*22 + 0*21 + 1*20
Здесь A - само число;
q - основание системы счисления;
ai - цифры принадлежащие алфавиту данной системы счисления;
n - количество целых разрядов числа;
m - количество дробных разрядов числа;
Перевод дробной части числа из десятичной системы в новую систему
счисления
1.Последовательно умножать дробную часть десятичного числа и
получаемые дробные части произведений на основание новой системы до тех
пор, пока дробная часть произведения не станет равной нулю или не будет
достигнута требуемая точность представления числа в новой системе
счисления;
2.Полученные целые части произведений, являющиеся цифрами числа в
новой системе счисления, привести в соответствие с алфавитом новой
системы счисления;
3.Составить дробную часть числа в новой системе счисления, начиная с
целой части первого произведения.
Правила перевода
1. Последовательно выполнять деление данного числа и получаемых
неполных частных на основание новой системы счисления до тех пор, пока
не получим неполное частное, меньшее делителя.
2. Полученные остатки, являющиеся цифрами числа в новой системе
счисления, привести в соответствие с алфавитом новой системы счисления.
3. Составить число в новой системе счисления, записывая его, начиная с
последнего частного.
При переводе двоичного числа в восьмеричную систему счисления
двоичное число разбиваем на группы по 3 цифры справа налево начиная с
младшего разряда. Затем каждую тройку цифр заменяем соответственно цифрой восьмеричной системы счисления.
Дробную часть разбиваем от запятой вправо на группы по 3 цифры.
Обратный переход - от восьмеричной системы счисления к двоичной -
осуществляется заменой каждой восьмеричной цифры ее двоичным
эквивалентом (тремя двоичными цифрами).
Для шестнадцатеричной системы счисления - четырьмя двоичными цифрами.
Примеры перевод двоичных чисел в шестнадцатеричную систему счисления.
Представление чисел в цифровых автоматах
Чтобы получить внутреннее представление целого положительного числа
N, хранящегося в К-разрядной ячейке, необходимо:
1. Перевести число N в двоичную систему счисления;
2. Полученный результат дополнить слева незначащими нулями до К
разрядов.
Получить внутреннее представление целого числа 1607 в 2-х байтовой
ячейке.
Решение:
N=1607=110010001112.
Внутреннее представление этого числа будет: 0000 0110 0100 0111.
Шестнадцатеричная форма внутреннего представления числа: 0647.
Дополнительным кодом двоичного числа X в N-разрядной ячейке является
число, дополняющее его до значения 2N.
Получение дополнительного кода:
1. Получить внутреннее представление положительного числа N (прямой
код);
2. Получить обратный код этого числа заменой 0 на 1 или 1 на 0 (обратный
код);
3. К полученному числу прибавить 1.
Положительное число в прямом, обратном и дополнительном кодах не
меняют свое изображение.
8. Магнитная память ПК.
магнитная память (magnetic storage) — вид памяти (ЗУ), использующий магнитный материал в качестве среды для записи и хранения данных. Разновидностями этого вида памяти являются память на магнитной проволоке (plated wire memory), память на магнитной пленке (thin-film memory), наносимой на некоторую подложку, например стеклянную. Наиболее широко использующимися устройствами реализации магнитной памяти в современных компьютерах являются накопители на магнитных лентах (НМЛ), магнитных (жестких и гибких) дисках (НЖМД и НГМД);
Накопитель на жёстких магнитных дисках или НЖМД (англ. hard (magnetic) disk drive, HDD, HMDD), жёсткий диск — запоминающее устройство произвольного доступа, основанное на принципе магнитной записи. Является основным накопителем данных в большинстве компьютеров.
В отличие от «гибкого» диска (дискеты), информация в НЖМД записывается на жёсткие (алюминиевые или стеклянные) пластины, покрытые слоем ферромагнитного материала, чаще всего двуокиси хрома — магнитные диски. В НЖМД используется одна или несколько пластин на одной оси. Считывающие головки в рабочем режиме не касаются поверхности пластин благодаря прослойке набегающего потока воздуха, образующейся у поверхности при быстром вращении. Расстояние между головкой и диском составляет несколько нанометров (в современных дисках около 10 нм[1]), а отсутствие механического контакта обеспечивает долгий срок службы устройства. При отсутствии вращения дисков головки находятся у шпинделя или за пределами диска в безопасной зоне, где исключён их нештатный контакт с поверхностью дисков.
Также, в отличие от гибкого диска, носитель информации совмещён с накопителем, приводом и блоком электроники и (в персональных компьютерах в большинстве случаев) обычно установлен внутри системного блока компьютера.