Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Computer_science

.pdf
Скачиваний:
12
Добавлен:
22.05.2015
Размер:
245.35 Кб
Скачать

Информатика

1Основы теоретической информатики. Основные понятия и определения.

1.Терминология и объект информатики.

2.Предметная область информатики.

3.Цели и задачи дисциплины.

1.1Терминология и объект информатики.

Информатика это наука, в которой сочетаются фундаментальные и прикладные исследования связанные с получением, обработкой, хранением и передачей информации.

Информатика, как наука, имеет свою терминологию, которая разделяется на 2 части. Первая часть заимствованные термины из других наук. Вторая часть собственные термины.

Основные термины информатики:

Данные это любые сведения об объектах и явлениях окружающей среды.

Информация это специальным образом структурированные данные, относящиеся к определенной предметной области.

Предметная область это ограниченная часть окружающей среды, выделяемая по определенным признакам объектов, принципам и типам, протекающих в ней процессов.

Принципы передачи информации от источника к приемнику:

Для того, чтобы передать информацию от источника к премнику, необходимо совершить (реализовать) определенный алгоритм.

Алгоритм это конечная последовательность действий, приводящая к желаемому результату.

ИСТОЧНИК ИНФОРМАЦИИ

#

КОДИРУЮЩЕЕ УСТРОЙСТВО

#

КАНАЛ СВЯЗИ (СРЕДА ПЕРЕДАЧИ)

#

ДЕКОДИРУЮЩЕЕ УСТРОЙСТВО

#

ПРИЕМНИК

Математически данный процесс может представляется в виде функции y = f(x). Åñëè ýòà ôóíê-

ция является непрерывной на всей области своего определения, то такую информацию и ее передачу называют аналоговой. Если же функция является кусочно непрерывной, то информация и ее передача называются дискретными (цифровыми). Устройство, предназначенное для преобразования информации, в соответствии с определенной последовательностью операций (программой), называется вычислительной машиной. В зависимости от типа обрабатываемой информации вычислительные машины делятся на следующие виды:

1.Аналоговая

2.Дискретная (цифровая)

3.Гибридная

1

Объектом информатики являются автоматизированные информационные системы (АИС) различного класса и назначения.

АИС - это человеко-машинный комплекс, в задачи которого входит сбор, обработка, хранение и передача информации.

Классификация АИС:

1.По направлению деятельности:

общегосударственные

отраслевые

промышленные

непромышленные

научные

2.По организации информационных процессов:

управляющие

информационные

3.По сфере применения:

административные

производственные

учебные

метрологические

4.По уровню развития: определяется типом и поколением ВМ, используемой для посроения АИС.

Таким образом, объектом информатики является комплекс, охватывающий все элементы информационных технологий.

1.2Предметная область информатики.

Предметом информатики является информационный ресурс, его сущность, законы функционирования, механизмы взаимодействия с остальными ресурсами общества. Фактически информационный ресурс представляет собой базу знаний в определенной предметной области.

Инструментарием информатики является ЭВМ.

Информатика, как наука, делится на две части: теоретическая и прикладная.

К теоретической информатике относятся задачи проектирования, создания и использования АИС. Процесс жизни любой АИС можно разделить на следующие части:

1.Постановка задачи

2.Исследование предметной области с целью определения свойств всех объектов и закономерностей протекания процессов

3.Проектирование АИС

4.Реализация

5.Ввод в эксплуатацию

6.Сопровождение и поддержка

7.Вывод из обращения

2

Наиболее важными в плане уменьшения экономических потерь являются первый и второй этапы. Прикладная информатика занимается изучением конкретных видов информационных технологий, определяя для них характерные черты и наиболее эффективные сферы применения. Результатом работы прикладной информатики является создание специализированных информационных

технологий.

1.3Цели и задачи дисциплины.

Целью изучения дисциплины информатика является получение фундаментальных знаний о информации, методах ее получения, хранения, обработки и передачи. Студент должен знать и использовать базовые понятия об информатике и вычислительной технике, предмете и основных методах информатики, закономерностях протекания процессов в искусственных системах, знать принципы построения технических и программных комплексов.

3

2Научные основы информатики.

1.Аксиоматика информатики

2.Свойства информации

3.Методы и модели оценки информации

2.1Аксиоматика информатики

Для того, чтобы ввести аксиомы в информатику, необходимо установить значение ряда терминов: Энтропия это мера отклонения от некоторого состояния, принимаемого за эталонное, опти-

мального по использованию информационного ресурса. Также энтропию называют мерой неопределенности системы. В общем виде энтропия вычисляется по следующей формуле:

Ý = X Ö, ãäå X это некоторое состояние системы, Ц целевая функция системы.

Целевая функция это функция полностью и однозначно описывающая поведение системы, аналитическое выражение.

Энтропия является вероятностной величиной, из чего формируется ее главное свойство: минимально возможное значение 0 (системы полностью выполняет свою функцию), максимальное 1 (система непредсказуема).

Информационная работа это воздействие управляющей системы на объект управления путем синтеза и передачи сообщений направленных на поддержание системы в исходном состоянии, либо перевод в новое состояние. Информационная работа имеет неэнтропийную природу, однако при ее выполнении в системе увеличивается энтропия.

Информационная среда это весь набор условий для технологической переработки и эффективного использования знаний в качестве информационного ресурса.

Напряженность информационного поля это та сила, с которой объект действует на управляющую систему, вызывая ее действие по снятию новой энтропии.

Информационный поток это полный поток, воздействующий на объект за период его перехода в новое состояние.

Аксиомы:

1. Применима для сложных систем управления с множеством подсистем:

К каждому элементу управляющей подсистемы идет исходный информационный поток равный: Ièñõ = NЭ, где N это количество сигналов, исходящих от объекта, Э энтропия этих сигналов

2.Информационная напряженность каждого элемента управляющей системы определяется исходным информационным потоком с учетом энтропии данного элемента.

qý = Ièñõ

Ýý

При этом, если энтропия элемента (Эý) равна 1, то управляющий элемент воспринимает и ретранслирует команды и не вырабатывает собственной информации. Если Э ý = 0, то управляющий элемент осуществляет полностью самостоятельное управление.

3. Информационная напряженность всей системы есть сумма напряженностей всех ее элементов:

m

Q = P ai

i=1

4.Данная аксиома устанавливает зависимость между полным информационным потоком, информационной напряженностью объекта и энергией, затрачиваемой системой управления для перевода объекта в новое состояние:

E = Q Iïîëí

4

5.Полный информационный поток соответствует полезной работе управляющей подсистемы за период перехода объекта в новое состояние.

6.Работа управляющей подсистемы состоит из двух частей:

A = a + b, где a внутренняя работа управляющей подсистемы, направленная на компенсации

ее исходной энтропии, b это внешняя работа, направленная на компенсацию энтропии объекта управления

Соостветственно, чем выше энтропия управляющей подсистемы, тем большую работу необходимо совершить для перевода объекта в новое целевое состояние.

2.2Свойства информации.

Свойства любых объектов можно разделить на 2 основных класса: внутренние свойства (характеризуют объект как самостоятельную единицу) и внешние свойства (характеризуют поведение объекта при взаимодействии его с другими объектами внутри системы).

Подобное разделение можно провести и для информации. К внутренним свойствам информации относятся методы организации информации, основных методов 2:

1.Простой, неупорядоченный набор сведений.

2.Логически упорядоченные данные.

Êвнешним свойствам информации относятся:

1.Качество информации это обобщенная характеристика, отражающая степень полезности информации для пользователя. К качеству информации относятся:

релевантность (способность информации соответствовать запросам потребителя)

полнота (свойство информации исчерпывающе описывать отображаемы объект)

достоверность (свойство не иметь ошибок)

защищенность

2.Научность информации это логическая закономерность, однозначно соответствующая закономерностям природы, общества и мышления.

3.Адекватность информации свойство информации однозначно соответствовать отображаемому объекту или явлению.

2.3Методы и модели оценки информации

В современной информатике приняты 3 основных метода измерения информации это объемный, энтропийный и алгоритмический.

Объемный метод измерения характеризуется количеством символов, содержащихся в конкретном сообщении (минимальная единица бит).

Энтропийный метод основывается на мере неопределенности некоторой совокупности событий. Энтропия расчитывается по формуле, предложенной Шенноном:

Ý = log2 Pi, ãäå Pi вероятность появления некторого события.

Алгоритмический метод характеризуется сложностью алгоритма с помощью которого информация может быть обработана, сохранена, либо передана.

5

3Организация обработки информации

1.Основные понятия. Двоичная система счисления. Смешанные системы счисления.

2.Перевод чисел из одной системы счисления в другую.

3.1Смешанные системы счисления.

Системой счисления называется совокупность приемов записи и наименования чисел. При этом, в любой системе счисления для представления чисел выбираются специальные символы, называемые базисными, а все остальные числа получаются путем выполнения некоторых операций над базисными числами.

Системы счисления можно разделить на 2 вида: позиционные и аддитивные.

Êпозиционным системам счислениям относится десятичная система счисления, базисными символами для которой являются цифры от 0 до 9. В позиционных системах счисления позиция цифры опрееляет ее удельный вес в формировании числа.

Êаддитивным системам сичсления относится римская система счисления, базисными символами для которой являются буквенные представления чисел 1, 5, 10, 50, 100,500 и 1000. При этом остальные числа получаются по следующему алгоритму:

1.Если цифра, стоящая справа меньше или равна цифре слева, то эти цифры складываются.

2.Если цифра слева меньше, чем цифра справа, то из правой цифры вычитается левая.

Поскольку в данной системе счисления числа получаются при помощи выполнения операции сложения, то такие системы получили название аддитивные .

В общем виде любое число в позиционной системе счисления записывается следующим образом: X = anan 1 : : : a0 : : : a n, ãäå ai является одним из базисных символов.

Любое число в позиционной системе счисления можно представить в виде полинома: X = an bn + an 1 bn 1 + : : : + a0 b0 + : : : + a n b n, ãäå b вес позиции разряда.

Для двоичной системы счисления весовым коэффициентом b=2, для восьмеричной 8, для шестнадцатеричной 16.

3.2Смешанные системы счисления.

В ряде случаев числа заданные в одной системе счисления приходится изображать с помощью цифр другой системы счисления, например: десятичные числа необходимо переводить в двоичные, чтобы с ними могла работать ЭВМ. В этих случаях используются смешанные системы счисления, в которых каждый коэффициент P-ичного разложения записывается в Q-ичной системе. В такой системе P называется старшим основанием, Q называется младшим основанием, а сама система счисления называется Q-P-ичная.

Для того, чтобы запись числа в смешанной системе счисления была однозначной, для представления P-ичной цифры отводится одно и то же количество Q-ичных разрядов равное количеству разрядов необходимых для представления максимальной P-ичной цифры.

Из смешанных систем счисления наибольшее распространение получила двоично-десятичная система счисления (по англ. BCD binary code decimal). Для того, чтобы записать число в двоичнодесятичной системе счисления, нужно десятичное число разбить на разряды.

787 = X2 = 0111100001112

Двоично-десятичная запись может иметь 2 формата: сернутый и развернутый. В свернутом формате одна десятичная цифра занимает 4 знакоместа, в развернутом 8. Такое разделение обусловлено внутренней организацией памяти компьютера. В некоторых случаях требуется, чтобы одна цифра хранилась в одном байте. Именно для таких случев и применяется развернутый BCD формат.

Выбор оптимальной системы счисления

6

x

количество чисел

2

212 = 4096

3

38

= 6561

4

46

= 1296

Под экономичностью системы счисления будем понимать то количество чисел, которое можно записать в данной системе с помощью определенного количества цифр. В данном случае речь идет не о количестве разрядов, а об общем количестве сочетаний цифр, которые интерпретируются как различные числа. Например, чтобы записать тысячу чисел (от 000 до 999) в десятичной системе счисления нам необходимо 30 цифр. А в двоичной системе с помощью 30 цифр можно записать

215 = 32768 различных чисел.

Найдем самую экономичную систему счисления. Введем следующие обозначения: n количество цифр, с помощью которых записываются числа, x основание системы счисления. Тогда количество разрядов, записанных в этой системе счисления равно n

n

x . Отсюда количество цифр, которые можно

записать равно X x . Найдем при каком X это выражение принимает макисамльное значение:

На основании данной таблицы можно сделать вывод, что основание самой экономичной систе-

мы счисления находится в диапазоне от 2 до 4. Чтобы найти точное значение, необходимо найти

 

n

производную от ф-ии f(x) = xx , f0(x)

1

1

Представим xx

= e x ln x Подставив данное выражение и приравняв его к нулю, получаем, что

самая оптимальная система счисления e.

7

4Общие принципы организации работы компьютера

1.Устройства и основные принципы построения компьютера

2.Команды и ее возможные варианты

4.1Устройства и основные принципы построения компьютера

Разнообразие современных компьютеров достаточно велико, но их структуры основаны на общих логических принципах, позволяющих выделить в любом компьютере следующие главные устройства:

Память

Процессор (включает в себя устройство управления (УУ) и арифметико-логическое устройство (АЛУ))

Устройство ввода

Устройство вывода

Эти устройства логически соеденины каналами связи, по которым передается информация. Основные устройства компьютера и связи между ними представлены на следующем рисунке:

Функции памяти:

1.Прием информации из других устройств

2.Запоминание информации

3.Выдача информации по запросу в другие устройства машины

Âпроцессоре существуют специальные ячейки памяти, называемые регистрами. По стандарту архитектуры x86 процессор имеет 16 пользовательских регистров и 15 системных. Примером таких регистров (пользовательских) является счетчик команд и регистр команд. В счетчике команд хранится последовательность выполняемых команд программы, в регистр команд обычно заносится текущая команда с ее операндами. Операнды это регистры или числа, над которыми программа выполняет действия.

Принципы построения компьютеров по фон Нейману:

1.Принцип программного управления

2.Принцип однородности памяти

3.Принцип адресности

8

4.2Команды и ее возможные варианты

Команда это описание элементарной операции, которую должен выполнить компьютер. В общем случае команда содержит следующую информацию:

1.Код выполняемой операции

2.Указание по определению операндов (или их адресов)

3.Указание по размещению получаемого результата

9

5Компьютерные сети

1.Основные способы органнизации межкомпьютерной связи

2.Понятие топологии, базовые топологии

5.1Основные способы органнизации межкомпьютерной связи

Есть 3 способа организации межкомпьютерной связи:

1.Объединение 2 рядом расположенных компьютеров через их коммуникационные порты посредством специального кабеля

2.Передача данных от одного компьютера другому посредством модема с помощью проводных или спутниковых линий связи

3.Объединение компьютеров в компьютерную сеть

При передаче информации весь объем данных разбивается на пакеты, т.е. отдельные блоки фиксированного размера. Пакеты нумеруются, чтобы их затем можно было собрать в правильной последовательности.

Для преодоления несовместимости интерфейсов отдельных компьютеров, вырабатывают специальные правила, называемые протоколами связи.

Протоколы это стандарты, определяющие набор конкретных правил обмена информации между разными устройствами передачи данных. Имеются протоколы для скорости передачи, форматов данных и контроля ошибок.

Протокол IP (Internet Protocol) это протокол межсетевого взаимодействия. Отвечает за адресацию и позволяет пакету на пути к конечному пункту назначения проходить по нескольким сетям. Протокол TCP (Transmission Control Protocol) это протокол передачи данных, отвечающий за разбиение передаваемой информации на пакеты и правильное восстановление информации из пакетов получателя.

Все пакеты, участвующие в передаче данных, используют единый протокол коммуникации TCP/IP. Для работы с сетью необходимо наличие специального сетевого ПО, которое обеспечивает передачу данных в соответствии с заданным протоколом.

5.2Понятие топологии сети, базовые топологии

Существует большое число способов, которыми можно соединить компьютеры между собой в единую компьютерную сеть. Чем больше разных компьютеров, тем больше таких способов соединения. Каждое соединение новый маршрут для передачи данных.

Топология сети характеризует физическое расположение компьютеров, сетевых интерфейсов передачи данных и других компонентов сети. Топология это стандартный термин, который:

1.Используется при описании основных компонентов компьютерной сети

2.Дает способы сравнивать и классифицировать различные сети

Топология сети обуславливает ее технические характеристики. В частности выбор той или иной топологии влияет на:

1.Состав необходимого сетевого оборудования и характеристики

2.Возможность расширения сети и ее надежности

3.Способ управления сетью

10

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]