- •Первое определение системы. Модель чёрного ящика.
- •Сложности выявления целей
- •Второе определение системы
- •Третье определение системы.
- •Классификация систем
- •По происхождению
- •Целостность системы.
- •Анализ систем на основе функционально-структурного подхода.
- •Модель "черного ящика"
- •Модель состава системы Основные положения.
- •Теория множеств как средства отображения модели состава.
- •Отношения на множествах.
- •Операции над множествами.
- •Упорядоченное множество
- •Модель структуры системы
- •Математический аппарат, используемый для построения модели структуры системы.
- •Соответствия.
- •Классификация соответствий.
- •Графы. Теория графов. Основные определения.
- •Особые типы графов.
- •Отношения на графах.
- •Комплексные элементы графа.
- •Частные случаи графов.
- •Методы задания графов.
- •Структурная схема системы
- •Динамика системы
- •Функционирование и развитие
- •Построении динамических моделей систем.
- •Типы динамических моделей
- •Общая математическая модель динамики
- •Понятие системы управления.
- •Классификация систем в зависимости от положения системы управления.
- •Классификация систем по используемому принципу управления.
- •Работа по заданной траектории
- •Регулирование.
- •Понятие больших и сложных систем.
- •Ресурсный подход к оценки сложности и величины системы.
- •Методы анализа систем.
- •Анализ структуры системы на основе не взвешенных графов.
- •Задача нахождения циклов и цепей в графовой модели структуры системы.
- •Задача поиска цепи на не взвешенных графах.
- •Задача соединения всех элементов системы без дублирующих связей.
- •Анализа структуры системы на основе взвешенных графов.
- •Взвешенные графы.
- •Оптимизационные задачи на взвешенных графах.
- •Задача поиска наименьшего остового дерева.
- •Задача поиска цепи наименьшего веса между двумя вершинами взвешенного графа. Общая постановка задачи.
- •Методы решения задачи.
- •I)Метод направленного поиска (динамического программирования) он же алгоритм Дейкстры. (Дайкстры)
- •Методы решения задачи коммивояжера.
- •Метод ветвей и границ.
- •Исследование структуры систем с помощью потоковых моделей.
- •5.1. Комплексные характеристики сетевого графа.
- •5.2. Алгоритм расчета пропускной способности сети (величины установившегося потока).
- •Исследование переходных процессов систем на основе теории конечных автоматов.
- •Объектно-ориентированный подход к анализу и разработке систем (ооп).
- •Основные положения объектно-ориентированного подхода.
- •Основные элементы объектной модели
- •Язык uml как средство построения моделей систем на основе ооп.
- •Строительные блоки uml
- •Автомат или модель состояний.
- •Моделирование динамические связи систем на основе моделей состояний объектов.
- •Процесс обмена данными между экземплярами объектов системы.
- •Понятие обмена данными. Реализация обмена.
- •Модели состояний объектов:
- •Информация и информационные системы.
- •Определение информации
- •Информационноя система
Информация и информационные системы.
Определение информации
Существующие определения информации.
Сведения, о лицах, предметах, фактах, не зависящие от формы их представления. Информация уменьшает степень неопределенности знаний о рассматриваемых объектах.
(сайт glossary.ru)
С точки зрения системного подхода информация, рассматривается как общесистемное свойство материи. Как свойство(способность) объекта отражать свои свойства на свойствах другого объекта.
Аспекты рассмотрения информации
В зависимости от области рассмотрения у информации выделяются аспекты
1. Прагматический (какая польза будет от нее). Информация рассматривается с точки зрения полезности, для достижения какой либо цели. В данном случае информация рассматривается как средство увеличения вероятности достижения поставленной цели. То есть, при получении информации вероятность достижения цели должна увеличивается, (она больше, чем до получения информации). В данном аспекте информация имеет целевой характер. Информация, существенная, для достижения некоторой цели, может быть не существенна для достижения другой цели.
2. Семантический аспект. Информация рассматривается с точки зрения ее смыслового содержания, то есть по составу объектов, которые она описывает, составу атрибутов объектов и связей объектов. При данном аспекте также необходимо учитывать целевой аспект, то есть влияние информации на ее потребителя. Прежде всего, повышение при получения информации общего объема информации в потребителе.
3. Синтаксический. Отображает форму представления информации. То есть, каким образом, на каком алфавите будет отображена, представлена информация. Правила формирования информационных блоков из информационных элементов.
4. Кибернетический. Информация рассматривается с точки зрения специальной теории – теории информации. При этом единичный объект информации представляется как сообщение о сделанном выборе из некоторого множества возможных альтернатив (вариантов). Очевидно, что сообщение несет большую информацию, если, исходных вариантов выбора много. Если исходных вариантов выбора нет, то есть он единственный, то величина информации о сделанном выборе равна 0.
Мера информации или количество информации.
Для различных аспектов информации используются различные понятия о количестве информации.
При прагматическом подходе под количеством информации можно рассматривать величину
IN=PI-P0
P0- вероятность достижения цели без полученной информации,
PI - вероятность достижения цели при получении информации,
При семантическом аспекте количество информации может быть измерено количеством описываемых объектов, связей, атрибутов. Однако при этом требуется учитывать текущий уровень информации об этих объектах у потребителей.
Для его учета в определении количества информации при прагматическом и семантическом подходе существует тезаурусная оценка.
Понятие тезауруса
Для восприятия некоторой информации потребитель сам должен обладать некоторым уровнем информации, называемым тезаурусом. С помощью данной исходной информации потребитель воспринимает переданную информацию. Если начальный тезаурус меньше уровня, необходимого для восприятия информации, то количество переданной информации равно нулю, если исходный тезаурус таков, что в него уже входит переданная информация, то количество переданной информации также равно нулю.
Количество полученной информации
IПЕР - Количество передаваемой информации
ITmin - минимально необходимый уровень тезауруса
Количество информации при кибернетическом подходе.
При кибернетическом подходе предполагается, что существует некоторое исходное количество альтернатив выбора.
A={a1,a2,.. ai,… an}
Процесс получения информации рассматривается как передача сообщение о выборе из некоторого исходного множества вариантов (о событии соответствующем выбору).
Информация, которая передается одним сообщением является функцией от вероятности данного сообщения, то есть, очевидно чем вероятнее выбор, тем меньше информации несет сообщения о нем (и без сообщения ясно )
I(ai)=φ(P(ai))
На основании этой связи с вероятностью формулируются следующие свойства информации
Количество информации передаваемое сообщением об очевидном событии ( событии с вероятностью 1) равна 0.
φ(1) = 0;
Для информации выполняется закон аддитивности, то есть сложения. Количество информация, передаваемое сообщением о двух событиях равна сумме информаций переданной сообщениями о каждом сообщении по отдельности.
I(ai , aj)= I(ai )+ I(aj);
На основе данного свойства производится вывод формулы количества информации.
И так, исходная формула -- I(ai , aj)= I(ai )+ I(aj);
Подставляем I(ai)=φ(P(ai)) ,
получаем - φ(P (ai , aj))= φ(P (ai ))+ φ(P (aj));
Но P (ai , aj))= P (ai )* P ( aj),
тогда имеем φ(P(ai )* P ( aj) =φ(P (ai ))+ φ(P (aj)) -- *;
Пусть P (ai )=P, P (aj)=Q, (P≠0, Q≠0)
Тогда из * имеем φ(P* Q) =φ(P)+ φ(Q);
Или φ(P)+ φ(Q) = φ(P* Q);
Продифференцируем данное равенство по P
φ’(P)+ 0 = Q*φ’(P* Q);
Умножим обе части на P
P* φ’(P) = P*Q*φ’(P* Q); - пусть QP = R
Имеем P* φ’(P) = R*φ’(R) = K;, где К некоторая константа, коэффициент
Имеем P* φ’(P) = K или φ’(P)= K/P – дифференциальное уравнение первого порядка, табличное причем.
Имеет решение такого вида φ(P) = K*ln(P)+C, где С - константа.
Находим С на основе первого свойства информации ( φ(1) = 0);
0 = K*ln(1)+C
С=- K*ln(1)=0;
Тогда формула количества информации имеет вид
I(ai)=φ(P(ai)) = K*ln(P(ai));
Коэффициент K определяет величину единицы информации, так как P(ai) < 1, то ln(P(ai) < 0, следовательно чтобы количество информации было положительным целесообразно использовать K < 0 (отрицательное)
Пусть K=-1, тогда
I(ai)= - ln(P(ai)) = ln(1/P(ai))
Исходя из данного равенства количество информации будет равно 1, когда вероятность выбора, о котором передает сообщение будет 1/e.
Обычно принято, что в качестве K = - 1/ln(2), при таком К формула имеет вид
I(ai)=φ(P(ai)) = - 1 / ln(2)*ln(P(ai)) =- ln(P(ai)) / ln(2) = - log2(P(ai)) = log2(1/P(ai)), тогда количество информации, величиной 1, передает сообщение о выборе вероятность которого 1/2 (орел/решка) . Такая величина информации обозначается как бит.