Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика_Лекции.docx
Скачиваний:
4
Добавлен:
26.08.2019
Размер:
5.22 Mб
Скачать

Введение

  1. Немного о теории информации

1.1 Информация в материальном мире

1.2 Свойства информации

  1. История и развитие персональных компьютеров

2.1 Предшественники компьютера

2.2 История развития персональных компьютеров

2.3 Первые IBM PC

2.4 Apple Macintosh

  1. Операционные системы

3.1 Что такое операционная система

3.1.1 Организация файловой системы

3.1.2 Обслуживание файловой структуры

3.1.3 Навигация по файловой структуре

3.2 Операционные системы типа DOS

3.3 Операционные системы Linux

3.4 Операционные системы Windows

3.5 Сравнение операционных систем Unix/Linux и Windows

Основное отличие информатики от других технических дисциплин, состоит в том, что ее предмет изучения меняется вместе с развитием науки и техники. Это связано с тем, что основные технические параметры аппаратных средств постоянно увеличиваются и усовершенствуются.

Приблизительно один раз в два-три года меняются поколения программного обеспечения, и один раз в пять-семь лет меняется база стандартов, интерфейсов и протоколов.

Сетевой протокол — набор правил, позволяющий осуществлять соединение и обмен данными между двумя и более включёнными в сеть устройствами.

Таким образом, кардинальным отличием информатики от других технических дисциплин является тот факт, что ее предметная область изменяется чрезвычайно динамично.

Информатика

Информатика — это техническая наука, систематизирующая приемы создания, хранения, воспроизведения, обработки и передачи данных средствами вычислительной техники, а также принципы функционирования этих средств и методы управления ими.

Слово информатика происходит от французского слова Informatique, образованного в результате объединения терминов Information (информация) и Automatique (автоматика), что выражает ее суть как науки об автоматической обработке информации.

Основной задачей информатики является систематизация приемов и методов работы с аппаратными и программными средствами вычислительной техники. Цель систематизации состоит в выделении, внедрении и развитии передовых, наиболее эффективных технологий, в автоматизации этапов работы с данными, а также в методическом обеспечении новых технологических исследований.

Информатика — практическая наука. Ее достижения должны проходить подтверждение практикой и приниматься в тех случаях, когда они соответствуют критерию повышения эффективности. В составе основной задачи информатики сегодня можно выделить следующие направления для практических приложений:

  • архитектура вычислительных систем (приемы и методы построения систем, предназначенных для автоматической обработки данных);

  • интерфейсы вычислительных систем (приемы и методы управления аппаратным и программным обеспечением);

  • программирование (приемы, методы и средства разработки компьютерных программ);

  • преобразование данных (приемы и методы преобразования структур данных);

  • защита информации (разработка методов и средств защиты данных);

  • автоматизация (функционирование программно-аппаратных средств без участия человека);

  • стандартизация (обеспечение совместимости между аппаратными и программными средствами, а также между форматами представления данных, относящихся к различным типам вычислительных систем).

В информатике все жестко ориентировано на эффективность. Вопрос, как сделать ту или иную операцию, для информатики является важным, но не основным. Основным же является вопрос, как сделать данную операцию эффективно.

Информация в материальном мире

Мы живем в материальном мире. Все, что нас окружает, относится либо к физическим телам, либо к физическим полям. Физические объекты находятся в состоянии непрерывного движении и изменения, которое сопровождается обменом энергией и ее переходом из одной формы в другую.

Все виды энергообмена сопровождаются появлением сигналов, то есть, все сигналы имеют в своей основе материальную энергетическую природу. При взаимодействии сигналов с физическими телами в последних возникают определенные изменения свойств — это явление называется регистрацией сигналов. Такие изменения можно наблюдать, измерять или фиксировать иными способами — при этом возникают и регистрируются новые сигналы, то есть, образуются данные.

Данные — это зарегистрированные сигналы.

Информация — это продукт взаимодействия данных и адекватных им методов.

Рассмотрим подробно определение информации:

Динамический характер информации. Информация не является статичным объектом — она динамически меняется и существует только в момент взаимодействия данных и методов. Все прочее время она пребывает в состоянии данных. Таким образом, информация существует только в момент протекания информационного процесса. Все остальное время она содержится в виде данных.

Требование адекватности методов. Одни и те же данные могут в момент потребления поставлять разную информацию в зависимости от степени адекватности взаимодействующих с ними методов. Например для человека, не владеющего китайским языком, письмо, полученное из Пекина, дает только ту информацию, которую можно получить методом наблюдения (количество страниц, цвет и сорт бумаги, наличие незнакомых символов и т. п.). Все это информация, но это не вся информация, заключенная в письме. Использование более адекватных методов даст иную информацию.

Диалектический характер взаимодействия данных и методов. Обратим внимание на то, что данные являются объективными, поскольку это результат регистрации объективно существовавших сигналов, вызванных изменениями в материальных телах или полях. В то же время, методы являются субъективными. В основе искусственных методов лежат алгоритмы (упорядоченные последовательности команд), составленные и подготовленные людьми (субъектами). В основе естественных методов лежат биологические свойства субъектов информационного процесса. Таким образом, информация возникает и существует в момент диалектического взаимодействия объективных данных и субъективных методов.

Энтропия – в теории информации, энтропия Шеннона, или информационная энтропия — мера неопределённости, связанной со случайной величиной (с.в.); определяет количество информации, содержавшейся в сообщении (обычно в битах или битах на символ); минимальная длина сообщения, необходимая для передачи информации; также абсолютный предел наиболее возможного сжатия без потерь любого сообщения: при представлении сообщения рядом символов, кратчайшее представление, необходимое для передачи сообщения — это энтропия Шеннона в битах на символ, умноженная на число символов в исходном сообщении.

Информационная энтропия для независимых случайных событий x с n возможными состояниями (от 1 до n) рассчитывается по формуле:

Подведение итогов:

Все процессы в природе сопровождаются сигналами. Зарегистрированные сигналы образуют данные. Данные преобразуются, транспортируются и потребляются с помощью методов. При взаимодействии данных и адекватных им методов образуется информация. Информация — это динамический объект, образующийся в ходе информационного процесса. Он отражает диалектическую связь между объективными данными и субъективными методами. Свойства информации зависят как от свойств данных, так и от свойств методов.