- •1.Структура вычислительной системы. Функции операционной системы.
- •2. История развития операционных систем.
- •3.Основные понятия, концепции операционных систем.
- •4.Архитектурные особенности ос. Способы построения.
- •2. Управление памятью.
- •5.Классификация ос.
- •6.Процессы. Понятие процесса. Состояния процесса.
- •7.Операции над процессами. Pcb и контекст процесса. Переключение контекста.
- •8. Планирование процессов. Уровни планирования. Критерии планирования и требования к алгоритмам.
- •9. Параметры планирования. Вытесняющее и невытесняющее планирование.
- •10. Алгоритмы планирования. Fcfs. Rr. Sjf.
- •11. Алгоритмы планирования. Гарантированное. Приоритетное. Многоуровневые очереди.
- •12. Взаимодействие процессов. Категории средств обмена информацией
- •13. Логическая организация механизма передачи информации. Устанавка связи. Информационная валентность процессов и средств связи.
- •14. Особенности передачи информации с помощью линий связи. Буферизация. Поток ввода-вывода и сообщения. Надежность средств связи. Завершение связи.
- •15.Нити исполнения. Способы организации нитей.
- •16. Алгоритмы синхронизации. Interleaving, race condition и взаимоисключения. Критическая секция.
- •Interleaving, race condition и взаимоисключения
- •Критическая секция
- •17. Программные алгоритмы организации взаимодействия процессов. Требования, предъявляемые к алгоритмам. Запрет прерываний. Переменная-замок.
- •18. Программные алгоритмы организации взаимодействия процессов. Строгое чередование. Флаги готовности. Алгоритм Петерсона. Строгое чередование
- •Флаги готовности
- •Алгоритм Петерсона
- •19. Программные алгоритмы организации взаимодействия процессов. Алгоритм булочной (Bakery algorithm). Аппаратная поддержка взаимоисключений. Test-and-Set. Swap.
- •Команда Test-and-Set (проверить и присвоить 1)
- •Команда Swap (обменять значения)
- •20. Механизмы синхронизации процессов. Семафоры. Концепция семафоров. Решение проблемы producer-consumer с помощью семафоров.
- •Решение проблемы producer-consumer с помощью семафоров
- •21. Механизмы синхронизации процессов. Мониторы. Сообщения
- •22. Эквивалентность семафоров, мониторов и сообщений. Реализация мониторов и передачи сообщений с помощью семафоров.
- •23. Реализация семафоров и передачи сообщений с помощью мониторов. Реализация семафоров и мониторов с помощью очередей сообщений.
- •24. Тупики. Концепция ресурса. Условия возникновения тупиков.
- •25. Основные направления борьбы с тупиками. Алгоритм страуса. Обнаружение тупиков
- •Обнаружение тупиков
- •26. Восстановление после тупиков. Перераспределение ресурсов. Откат. Ликвидацию одного из процессов.
- •27. Способы предотвращения тупиков путем тщательного распределения ресурсов. Алгоритм банкира. Недостатки.
- •28. Предотвращение тупиков за счет нарушения условий возникновения тупиков (взаимоисключения, ожидания дополнительных ресурсов, неперераспределяемости, кругового ожидания)
- •29. Родственные проблемы тупиков. Двухфазная локализация. Тупики не ресурсного типа. Голод (starvation).
- •1.Двухфазная локализация
- •2.Тупики не ресурсного типа
- •3.Голод (starvation)
- •30. Управление памятью. Функции. Связывание адресов.
- •Физическая организация памяти компьютера
- •31. Простейшие схемы управления памятью. Схема с фиксированными разделами. Один процесс в памяти. Оверлейная структура.
- •32. Простейшие схемы управления памятью. Свопинг. Мультипрограммирование с переменными разделами.
- •Динамическое распределение. Свопинг
- •33. Понятие виртуальной памяти. Архитектурные средства поддержки виртуальной памяти. Страничная память.
- •34. Сегментная и сегментно-страничная организации памяти. Таблица страниц.
- •35. Ассоциативная память. Иерархия памяти. Размер страницы.
- •36. Аппаратно-независимый уровень управления виртуальной памятью. Исключительные ситуации при работе с памятью. Стратегии управления страничной памятью.
- •37. Алгоритмы замещения страниц. Fifo алгоритм. Оптимальный алгоритм.
- •38. Алгоритмы замещения страниц. Lru, nfu алгоритмы и другие.
- •Выталкивание дольше всего не использовавшейся страницы. Алгоритм lru
- •Выталкивание редко используемой страницы. Алгоритм nfu
- •Другие алгоритмы
- •39. Thrashing. Свойство локальности. Модель рабочего множества. Демоны пейджинга. Трешинг (Thrashing)
- •Модель рабочего множества
- •Страничные демоны
- •40. Аппаратно-независимая модель памяти процесса. Структуры данных, используемые для описания сегментной модели. Функционирование менеджера памяти.
- •41. Файловая система. Определение. Функции. Имена файлов.
- •42. Структура файлов. Типы и атрибуты файлов. Доступ к файлам. Операции над файлами.
- •43. Директории. Логическая структура файлового архива. Операции над директориями. Защита файлов. Контроль доступа к файлам. Списки прав доступа.
- •44. Реализация файловой системы. Интерфейс файловой системы. Общая структура файловой системы.
- •45. Структура файловой системы на диске. Методы выделения дискового пространства.
- •46. Управление свободным и занятым дисковым пространством. Размер блока. Структура файловой системы на диске.
- •47. Монтирование файловых систем. Связывание файлов. Организация связи между каталогом и разделяемым файлом. Кооперация процессов при работе с файлами.
- •48. Надежность файловой системы. Целостность файловой системы. Управление плохими блоками. Производительность файловой системы. Современные архитектуры файловых систем.
- •49. Система управления вводом-выводом. Физические принципы организации ввода-вывода. Общие сведения об архитектуре компьютера. Структура контроллера устройства.
- •50. Опрос устройств и прерывания. Исключительные ситуации и системные вызовы. Dma.
- •51. Логические принципы организации ввода-вывода. Структура системы ввода-вывода. Систематизация внешних устройств и интерфейс между базовой подсистемой ввода-вывода и драйверами
- •52. Функции базовой подсистемы ввода-вывода. Блокирующиеся, не блокирующиеся и асинхронные системные вызовы. Буферизация и кэширование. Spooling и захват устройств. Обрабо
- •Spooling и захват устройств
- •Обработка прерываний и ошибок
- •Планирование запросов
- •53. Алгоритмы планирования запросов к жесткому диску. Строение жесткого диска и параметры планирования. Алгоритмы fcfs, sstf, scan, c-scan, look, c-look.
- •54. Основные понятия информационной безопасности. Классификация угроз. Формализация подхода к обеспечению информационной безопасности. Классы безопасности.
- •55. Политика безопасности. Криптография, как одна из базовых технологий безопасности ос.
- •56. Защитные механизмы операционных систем. Идентификация и аутентификация. Пароли, уязвимость паролей.
- •57. Авторизация. Разграничение доступа к объектам ос. Домены безопасности.
- •58. Матрица доступа. Недопустимость повторного использование объектов. Аудит, учет использования системы защиты
15.Нити исполнения. Способы организации нитей.
Нити – мини процессы, выполняющиеся в рамках одного процесса. +(распоралеливание действий)
Нити разделяют:
1.Програмный код
2.Глобальные переменные
3.Системные ресурсы
5.Файлы
Каждая нить имеет свой собственный:
1.Програмный счетчик.
2.Содержимое регистров.
3.Стек.
4.Состояние.
Способы организации нитей:
1 .Модель диспетчер.
2.Команда модель.
3 .Конвеер.
16. Алгоритмы синхронизации. Interleaving, race condition и взаимоисключения. Критическая секция.
Interleaving, race condition и взаимоисключения
Под активностями мы будем понимать последовательное выполнение ряда действий, направленных на достижение определенной цели. Мы будем разбивать активности на некоторые неделимые, или атомарные, операции.
Неделимые операции могут иметь внутренние невидимые действия. Мы же называем их неделимыми потому, что считаем выполняемыми за раз, без прерывания деятельности.
Пусть имеется две активности
P: a b c; Q: d e f
где a,b,c,d,e,f – атомарные операции. При последовательном выполнении активностей мы получаем такую последовательность атомарных действий:
PQ: a b c d e f
Что произойдет при исполнении этих активностей псевдопараллельно, в режиме разделения времени? Активности могут расслоиться на неделимые операции с различным чередованием, то есть может произойти то, что на английском языке принято называть словом interleaving. Возможные варианты чередования:
а b c d e f
a b d c e f
a b d e c f
a b d e f c
a d b c e f
......
d e f a b c
Атомарные операции активностей могут чередоваться всевозможными различными способами с сохранением порядка расположения внутри активностей. Так как псевдопараллельное выполнение двух активностей приводит к чередованию их неделимых операций, результат псевдопараллельного выполнения может отличаться от результата последовательного выполнения.
Мы будем говорить, что набор активностей (например, программ) детерминирован, если всякий раз при псевдопараллельном исполнении для одного и того же набора входных данных он дает одинаковые выходные данные. В противном случае он недетерминирован .
Можно ли до получения результатов определить, является ли набор активностей детерминированным или нет? Для этого существуют достаточные условия Бернстайна. Изложим их применительно к программам с разделяемыми переменными.
Введем наборы входных и выходных переменных программы. Для каждой атомарной операции наборы входных и выходных переменных – это наборы переменных, которые атомарная операция считывает и записывает. Набор входных переменных программы R(P) (R от слова read) - суть объединение наборов входных переменных для всех ее неделимых действий. Аналогично, набор выходных переменных программы W(P) (W от слова write) - суть объединение наборов выходных переменных для всех ее неделимых действий. Например, для программы
P: x=u+v
y=x*w
получаем R(P) = {u, v, x, w}, W(P) = {x, y}. Заметим, что переменная x присутствует как в R(P), так и в W(P).
Теперь сформулируем условия Бернстайна.
Если для двух данных активностей P и Q:
пересечение W(P) и W(Q) пусто,
пересечение W(P) с R(Q) пусто,
пересечение R(P) и W(Q) пусто,
тогда выполнение P и Q детерминировано.
Случай двух активностей естественным образом обобщается на их большее количество.
Про недетерминированный набор программ (и активностей вообще) говорят, что он имеет race condition ( состояние гонки, состояние состязания).
Задачу упорядоченного доступа к разделяемым данным (устранение race condition) в том случае, когда нам не важна его очередность, можно решить, если обеспечить каждому процессу эксклюзивное право доступа к этим данным. Каждый процесс, обращающийся к разделяемым ресурсам, исключает для всех других процессов возможность одновременного общения с этими ресурсами, если это может привести к недетерминированному поведению набора процессов. Такой прием называется взаимоисключением (mutual exclusion) . Если очередность доступа к разделяемым ресурсам важна для получения правильных результатов, то одними взаимоисключениями уже не обойтись, нужна взаимосинхронизация поведения программ.