Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Вопросы по информатике к экзамену_КЗИ_ИС.doc
Скачиваний:
3
Добавлен:
07.07.2019
Размер:
558.59 Кб
Скачать

2. Информация (от лат. Informatio, разъяснение, изложение, осведомленность) — общенаучное понятие, связанное с объективными свойствами материи и их отражением в человеческом сознании.

Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.

Информация может существовать в виде:

· текстов, рисунков, чертежей, фотографий;

· световых или звуковых сигналов;

· радиоволн;

· электрических и нервных импульсов;

· магнитных записей;

· жестов и мимики;

· запахов и вкусовых ощущений;

· хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т. д.

Информатика рассматривает информацию как концептуально связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Наряду с информацией в информатике часто употребляется понятие данные. Покажем, в чем их отличие.

Данные могут рассматриваться как признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если появляется возможность использовать эти данные для уменьшения неопределенности о чем-либо, данные превращаются в информацию. Поэтому можно утверждать, что информацией являются используемые данные.

Данные - это формальные факты или идеи, которые можно хранить, обрабатывать и передавать на расстояние.

Данные также определяются, как числа, символы или буквы, которые используют при описании личностей, объектов, ситуаций, а также для их анализа, обсуждения или принятия соответствующих решений.

Другой формой представления информации является сообщение.

Сообщение - это текст, цифровые данные, изображения, звук, графика, таблицы и др.

Сообщения содержат информацию тогда, когда могут быть приняты и поняты любым живым существом или приёмником информации.

Классификации

Информацию можно систематизировать по способу восприятия органами чувств, которых у человека пять.

Связь способов восприятия информации с видами информации.

Органы чувств человека - Вид информации

1.Зрение - визуальная

2.Слух - аудиальная

3.Обоняние - обонятельная

4.Вкус - вкусовая

5.Осязание - тактильная

По разным оценкам от 75 до 90% информации человек получает с помощью органов зрения. Примерно 9–15% – с помощью органов слуха, остальную информацию – с помощью обоняния, вкуса и осязания.

Компьютерные технические устройства воспринимают информацию по форме её представления, как: текстовую, графическую, числовую (цифровую), звуковую, видео (статическую и динамическую), мультимедийную (комбинированную), а также: оптическую и электромагнитную.

По содержанию информацию делят на: экономическую, правовую, техническую, социальную, статистическую, организационную и т.д. Содержание информации обычно определяет её назначение.

Основные свойства:

Объективность - не зависит от чего-либо мнения

Достоверность - отражает истинное положение дел

Полнота - достаточна для понимания и принятия решения

Актуальность - важна и существенна для настоящего времени

Ценность (полезность, значимость)- обеспечивает решение поставленной задачи, нужна для того чтобы принимать правильные решения

Понятность (ясность)- выражена на языке, доступном получателю

Еще свойства:

1) Атрибутивные свойства (атрибут - неотъемлемая часть чего-либо). Важнейшими среди них являются:- дискретность (информация состоит из отдельных частей, знаков) и непрерывность (возможность накапливать информацию)

2) Динамические свойства связаны с изменением информации во времени:

- копирование - размножение информации

- передача от источника к потребителю

- перевод с одного языка на другой

- перенос на другой носитель

- старение (физическое - носителя, моральное - ценностное)

3) Практические свойства - информационный объем и плотность

3. Определить понятие "количество информации" довольно сложно. В решении этой проблемы существует два основных подхода. Исторически они возникли почти одновременно. В конце 1940 г. один из основоположников кибирнетики американский математик Клод Шенон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к "объемному подходу".

Количество информации как мера уменьшения неопределенности

(вероятностный подход)

Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней. Результаты данного опыта могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2, . . . N.

Введем в рассмотрение численную величину, измеряющую неопределенность -- энтропию (обозначим ее H). Согласно развитой теории, в случае равновероятного выпадания каждой из граней величины N и H связаны между собой формулой Хартли

H = log2 N.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

В случае, когда вероятности Pi результатов опыта (в примере, приведенном выше -- бросания игральной кости) неодинаковы, имеет место формула Шеннона

В случае равновероятности событий, и формула Шеннона переходит в формулу Хартли.

Вся информация в компьютере представлена в числовой форме

  • Используется двоичная система счисления

  • Единицей информации является 1 бит – двоичный разряд, который может принимать значения 0 или 1

  • 1 байт – 8 бит. В 1 байте можно закодировать 256 различных символов

  • 1 килобайт = 1024 байт

  • 1 мегабайт = 1024 килобайт

  • 1 гигабайт = 1024 мегабайт

  • 1 терабайт = 1024 гигабайт

4. Для представления информации в памяти ЭВМ (как числовой так и не числовой) используется двоичный способ кодирования.

Элементарная ячейка памяти ЭВМ имеет длину 8 бит (1 байт). Каждый байт имеет свой номер (его называют адресом). Наибольшую последовательность бит, которую ЭВМ может обрабатывать как единое целое, называют машинным словом.

В некоторых случаях при представлении в памяти ЭВМ чисел используется смешанная двоично-десятичная система счисления

ПК позволяет работать со следующими типами

Тип

Диапазон

Мантисса

Байты

Real

2,9*10-39..1,7*1038

11-12

6

Single

1,5*10-45..3,4*1038

7-8

4

Double

5,0*10-324..1,7*10308

15-16

8

Extended

3,4*10-4932..1,1*104932

19-20

10

5. Информатика - это фундаментальная естественная наука, изучающая структуру и общие свойства информации, связанные с процессами сбора, хранения, поиска, переработки, преобразования и использования информации в различных сферах человеческой деятельности.