Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы_ГОС_магистр.doc
Скачиваний:
67
Добавлен:
09.09.2019
Размер:
4.03 Mб
Скачать

Блок «Современные проблемы прикладной информатики» 3

1. Энтропия сложной системы. 3

2. Понятие информации. Измерение информации. 5

3. Информация в абстрактных системах и средах. 5

4. Описательная и идентифицирующая роль информации. Знания, информация, данные. 6

5. Понятие информационных систем. Состав и структура. 6

6. Классификация информационных систем. 8

7. Вопросы надежности распределенных информационно-вычислительных систем. 9

8. Современные подходы к построению систем электронного документооборота. 10

9. Обобщенный перечень функций автоматизированных систем документооборота. 11

10. Семантика информационных систем, основанных на концепции баз данных. 11

11. Лингвистическое обеспечение автоматизированных систем. Идентификация объектов на основе классификации и кодирования. 13

12. Виды обеспечения информационных систем. 14

13. Стадии разработки информационных систем. 15

14. Общие методологические подходы к созданию информационных систем. 16

15. Технологии извлечения знаний из больших баз данных. Обобщенная схема, стратегия, методы информационного поиска. 17

16. Технологии извлечения знаний из больших баз данных. Типология поисковых задач. 21

17. Технологии извлечения знаний из больших баз данных. Типология информационной неопределенности. 22

Блок «Проблемы автоматизированного создания и адаптации информационных систем и технологий» 24

1. Понятие процесса. Уровни зрелости организации. 24

2. Стратегический, тактический и операционный уровни управления компанией. Задачи, решаемые на этих уровнях. 26

3. Информационная технология на предприятии – состав и способ использования. 28

4. Понятие совокупной стоимости владения. 28

5. Модель принятия инвестиционных решений по заказу и внедрению информационных систем и технологий в компании 31

6. Модель Захмана и направления ее использования в жизненном цикле информационных систем. 31

7. Стандарты проектного и процессного подхода в современных информационных системах. 33

8. Процессы жизненного цикла систем. 37

9. Стадии жизненного цикла информационных систем. 41

10. Модель пользователя информационной системы. Виды проектных и эксплуатационных документов. 42

11. Виды испытаний автоматизированных систем по ГОСТ 34.603. 44

12. Процессы ввода в действие ИС. 50

13. Назначение, содержание и особенности процессов эксплуатации и сопровождения. 52

14. Понятие сопровождения и его роль в жизненном цикле ИС (по ГОСТ Р ИСО/МЭК 14 764). 55

15. Преимущества централизованной архитектуры информационной системы. 58

Блок «Корпоративные информационные системы» 60

1. Методологические основы КИС. Система (понятие системы, системность, системный подход, предприятие, как сложная система, описание системы, КИС как сложная система). 60

2. Методологические основы КИС. Открытые системы (понятие ОС, место ОС в КИС, развитие концепции ОС, определения ОС, принципы ОС, ключевые интерфейсы, функциональная стандартизация). 60

3. Методологические основы КИС. Процессы (понятие, представления процесса, характеристики процесса, способность к адаптации, основные процессы КИС). 62

4. Методологические основы КИС. Модели (понятие, виды моделей, объекты моделирования в КИС, модели в области ИС). 63

5. Методологические основы КИС. Жизненный цикл (понятие, подходы к моделированию ЖЦ, стадии ЖЦ, стандарты ЖЦ ИС). 64

6. Методологии моделирования КИС. Структурный подход к моделированию. Методология SADT. 65

7. Методологии моделирования КИС. Объектно-ориентированный подход к моделированию. Методология RUP. 65

8. Модели бизнеса. Архитектурная модель. 66

9. Модели бизнеса. Модели MRP, MRPI. 66

10. Модели бизнеса. Модель MRP II. Основные плановые механизмы MRP II. 67

11. Модели бизнеса. Модель MRP II. Основные модули MRP II. 67

12. Модели бизнеса. Модель ERP. 68

13. Модели бизнеса. Модели CRM, HRM. 68

14. Реализация ERP модели средствами SAP. 69

15. Реализация ERP модели средствами Oracle. 70

Блок «Современные проблемы прикладной информатики»

  1. Энтропия сложной системы.

Энтропия — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

Хартли. Энтропия случайных величин.

Введем в рассмотрение численную величину, измеряющую неопределенность — энтропию (обозначим ее H). Согласно развитой теории, в случае равновероятного выпадения каждой из граней величины N и H связаны между собой формулой Хартли H = log2 N.

Важным при введении какой-либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, H будет равно единице при N = 2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты при котором возможны два исхода: «орел», «решка»). Такая единица количества информации называется «бит».

H(ξ)=logn

Формула Шенона.

В общем случае, энтропия H и количество получаемой в результате снятия неопределенности информации I зависят от исходного количества рассматриваемых вариантов N и априорных вероятностей реализации каждого из них P: {p0, p1, …pN-1}, т.е. H=F(N, P). Расчет энтропии в этом случае производится по формуле Шеннона, предложенной им в 1948 году в статье "Математическая теория связи".

В частном случае, когда все варианты равновероятны, остается зависимость только от количества рассматриваемых вариантов, т.е. H=F(N). В этом случае формула Шеннона значительно упрощается и совпадает с формулой Хартли, которая впервые была предложена американским инженером Ральфом Хартли в 1928 году, т.е. не 20 лет раньше.

Формула Шеннона имеет следующий вид:

(1)

Знак минус в формуле (1) не означает, что энтропия – отрицательная величина. Объясняется это тем, что pi£1 по определению, а логарифм числа меньшего единицы - величина отрицательная. По свойству логарифма , поэтому эту формулу можно записать и во втором варианте, без минуса перед знаком суммы.

интерпретируется как частное количество информации, получаемое в случае реализации i-ого варианта. Энтропия в формуле Шеннона является средней характеристикой – математическим ожиданием распределения случайной величины

Приведем пример расчета энтропии по формуле Шеннона. Пусть в некотором учреждении состав работников распределяется так: ¾ - женщины, ¼ - мужчины. Тогда неопределенность, например, относительно того, кого вы встретите первым, зайдя в учреждение, будет рассчитана рядом действий, показанных в таблице 1.

Таблица 1.

Если же априори известно, что мужчин и женщин в учреждении поровну (два равновероятных варианта), то при расчете по той же формуле мы должны получить неопределенность в 1 бит. Проверка этого предположения проведена в таблице 2.

Таблица 2

Формула Шеннона (1) совпала по форме с формулой Больцмана, полученной на 70 лет ранее для измерения термодинамической энтропии идеального газа. Эта связь между количеством информации и термодинамической энтропией послужила сначала причиной горячих дискуссий, а затем – ключом к решению ряда научных проблем. В самом общем случае энтропия понимается как мера неупорядоченности, неорганизованности материальных систем.

В соответствии со вторым законом термодинамики закрытые системы, т.е. системы лишенные возможности вещественно-энергетически-информационного обмена с внешней средой, стремятся, и с течением времени неизбежно приходят к естественному устойчивому равновесному внутреннему состоянию, что соответствует состоянию с максимальной энтропией. Закрытая система стремится к однородности своих элементов и к равномерности распределения энергии связей между ними. Т.е. в отсутствии информационного процесса материя самопроизвольно забывает накопленную информацию.

Средняя целостность (?)

Энтропия - произведение 2х случайных величин = сумме 2х эн тропий случайных величин.

Традиционно принято в теории вероятности считать термины такие как:

-опыт

-исход опыта

-вероятность исхода опыта

-система

-состояние системы

-множество состояний системы

Единица измерения энтропии

ξ

P(ξ)

1/2

1/2

Энтропия - сложная система, состоящая из 2х систем, зависящих от....

Образование сложной энтропии

H(ξ/η)=H(ξ)+H(η/ξ)

H(ξ,η)=H(η)+H(ξ/η)

H(η/ ξ)<H(η) H(ξ/η)<H(ξ)

Теорема 1.

H(ξ)<=logn

Если есть система и состоянии, то выше значения logn она не будет.

Теорема 2.

maxH(ξ)=logn при

Теорема 3.

H(ξ/η)<=H(ξ)

Теорема 4.

i=2,3