2.3. Единицы измерения информации
В
качестве единицы информации условились
принять один бит
(англ. bit - binary, digit - двоичная цифра).
Бит
в теории информации - количество
информации, которое
содержится в двоичной цифре, может
принимать значения 0 или 1 (1 – есть
сигнал, 0 –нет сигнала).
В
вычислительной технике битом называют
наименьшую "порцию" памяти
компьютера, необходимую для хранения
одного из двух знаков "0" и "1",
используемых для внутримашинного
представления данных и команд.
Одним
битом могут быть выражены два понятия:
0 или 1 (да или нет, черное или белое,
истина или ложь и т.п.).
Увеличивая
на единицу количество разрядов в системе
двоичного кодирования, мы увеличиваем
в два раза количество значений, которое
может быть выражено в данной системе,
то есть общая формула имеет вид:
где
N
- количество независимых кодируемых
значений; m
- разрядность двоичного кодирования,
принятая в данной системе.
Бит
- слишком мелкая единица измерения. На
практике чаще применяется более крупная
единица - байт,
равная восьми битам.
Именно
восемь битов требуется для того, чтобы
закодировать любой из 256 символов
алфавита клавиатуры компьютера: 256
=28.
В
большинстве современных ЭВМ при
кодировании каждому символу соответствует
своя последовательность из восьми нулей
и единиц, т. е. байт. Наряду с байтами для
измерения количества информации
используются более крупные единицы:
8
бит = 1 байт (сокращенно б или Б),
1
Килобайт = 1024 Байт (сокращенно Кб или
К),
1
Мегабайт = 1024 Кбайт (сокращенно Мб или
М),
1
Гигабайт = 1024 Мбайт (сокращенно Гб или
Г).