- •Введение
- •Управление ресурсами: общие сведения
- •Управление процессами
- •2.1 Состояния процессов и переходы между ними
- •Стратегии и дисциплины планирования загрузки процессоров
- •Стратегия одинакового среднего времени ожидания
- •Дисциплина планирования fifo
- •Справедливая стратегия
- •Дисциплина планирования rr
- •Влияние величины кванта времени на величину средней задержки ответа
- •Стратегия максимальной пропускной способности
- •Дисциплина планирования sjf
- •Дисциплина планирования srt
- •Дисциплина планирования hrrn
- •Стратегия приоритетного планирования
- •Дисциплина лотерейного планирования
- •Дисциплины планирования с множеством очередей
- •Планирование с последовательным прохождением очередей
- •Дисциплина планирования vrr
- •Планирование на основе множества очередей с обратными связями
- •2.3 Планирование в многопользовательской системе – справедливое планирование
- •2.4 Планирование загрузки процессоров в операционных системах реального времени – частотно-монотонное планирование
- •2.5 Планирование загрузки процессоров в многопроцессорных системах
- •Многопроцессорная система с главным процессором
- •Организация с собственным планировщиком для каждого процессора
- •Симметричная многопроцессорная организация (smp)
- •Разбиение системных таблиц
- •Смещение моментов прерывания таймера
- •Стратегия планирования загрузки процессоров в многопроцессорной системе
- •Стратегия распределения загрузки
- •Стратегия максимальной производительности при параллельных вычислениях – бригадное планирование
- •Метод расщепление цикла
- •Метод редукции высоты дерева
- •Параллельное вычисление по альтернативным ветвям
- •Бригадное планирование процессов в многопроцессорной системе
- •2.6 Синхронизация выполнения процессов
- •Алгоритмы взаимоисключения с активным ожиданием
- •Алгоритм 1
- •Алгоритм 2
- •Алгоритм 3
- •Алгоритм 4
- •Алгоритм 5
- •Алгоритм Деккера
- •Алгоритм Петерсона
- •Алгоритм на основе команды процессора "проверить и установить"
- •Алгоритм на основе команды процессора "обменять данные"
- •Недостатки алгоритмов с активным ожиданием
- •Алгоритмы взаимоисключения с блокировкой процессов
- •Открытие объекта синхронизации
- •Закрытие объекта синхронизации
- •Вхождение в критическую секцию
- •Выход из критической секции
- •Замечания по реализации примитивов синхронизации
- •Мониторы
- •2.7 Взаимная блокировка процессов (тупики)
- •Необходимые условия возникновения тупика
- •Методы борьбы с тупиками
- •Предотвращение тупиков
- •Нарушение ожидания дополнительных ресурсов
- •Нарушение неперераспределимости ресурсов
- •Нарушение условия кругового ожидания
- •Устранение тупиков
- •Обнаружение тупиков
- •Управление памятью
- •3.1 Иерархическая модель памяти
- •Оценка среднего времени доступа к данным при использовании многоуровневой модели памяти
- •Локализация ссылок при обращении к памяти
- •3.2 Виртуальная память
- •Предпосылки создания виртуальной памяти
- •Архитектура виртуальной памяти
- •Подсистема трансляции адресов
- •Метод прямого отображения
- •Метод ассоциативного отображения
- •Метод комбинированного отображения
- •Архитектура виртуального адресного пространства
- •Сегментная организация виртуальной памяти
- •Страничная организация виртуальной памяти
- •Сегментно-страничная организация виртуальной памяти
- •Отображение файла на виртуальное адресное пространство
- •Совместное использование данных в оперативной памяти
- •3.3 Основные стратегии управления памятью
- •Стратегии выборки данных
- •Стратегии размещения данных
- •Выделение памяти по стратегии первого подходящего
- •Выделение памяти по стратегии наиболее подходящего
- •Выделение памяти по стратегии наименее подходящего
- •Стратегии замещения данных
- •Замещение с немедленной перезаписью и замещение с буферизацией
- •Замещение с локальной и глобальной областью видимости
- •3.4 Управление виртуальной памятью
- •Выборка в системе виртуальной памяти
- •Реализация выборки по требованию
- •Размещение в системе виртуальной памяти
- •Замещение в системе виртуальной памяти
- •Стратегия выталкивания случайной страницы
- •Оптимальная стратегия
- •Дисциплина fifo – выталкивание наиболее старой страницы
- •Дисциплина lru – выталкивание дольше всего неиспользуемой страницы
- •Дисциплина lfu – выталкивание страницы с наименьшей частотой обращений
- •Дисциплина nru – выталкивание страницы, не используемой в последнее время
- •Часовой алгоритм
- •Управление резидентным множеством страниц процесса
- •Понятие рабочего множества страниц процесса
- •Управление резидентными множествами на основе рабочих множеств
- •Глобальное замещение, динамическое резидентное множество
- •Локальное замещение, фиксированное резидентное множество
- •Локальное замещение, динамическое резидентное множество
- •Алгоритм на основе оценки частоты прерываний – дисциплина pff (Page Fault Frequency)
- •Алгоритм с переменным пробным интервалом – дисциплина vsws
- •Влияние размера страницы
- •Оптимизация работы дискового накопителя
- •Оптимизация механических перемещений головок диска
- •Основы устройства и функционирования дисковых накопителей
- •Стратегии оптимизации механических перемещений головок диска
- •Стратегия fcfs – Fist Come First Served
- •Стратегия sstf – Shortest Seek Time First
- •Стратегия scan – Scanning
- •Стратегия n-step scan – n-step Scanning
- •Системный дисковый кэш
- •Структура системного дискового кэша
- •Хэширование, хэш-функции и хэш-очереди
- •Структура блока и очередей дискового кэша
- •Работа системного дискового кэша
- •Упреждающее чтение
- •Реализация дискового кэша на основе виртуальной памяти
- •3.6 Надежность операционной системы при использовании системного дискового кэша
- •Буферизация ввода-вывода на пользовательском уровне
- •3.7 Процессорный кэш
- •Отображение участков озу на процессорный кэш
- •Случайное отображение участков озу в процессорный кэш
- •Детерминированное отображение участков озу в процессорный кэш
- •Комбинированное отображение участков озу в процессорный кэш
- •Работа процессорного кэша в режиме записи данных
- •3.8 Динамическое распределение памяти
- •Куча (heap)
- •Алгоритмы динамического распределения памяти
- •Отложенное объединение свободных блоков
- •Оптимизация списка свободных блоков
- •Метод парных меток для поддержания списка блоков кучи
- •Специальные алгоритмы динамического распределения памяти из кучи
- •Метод близнецов (или метод двойников)
- •Алгоритм выделения блоков памяти одинакового размера
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
2.4 Планирование загрузки процессоров в операционных системах реального времени – частотно-монотонное планирование
Основным отличием операционных систем реального времени от любых других операционных систем являются гарантии на время начала или завершения процессов, которые предоставляются системами реального времени.
Различают системы жесткого реального времени и мягкого реального времени. Реальные гарантии обслуживания предоставляют только системы жесткого реального времени. Системы мягкого реального времени могут гарантировать только предоставление максимума ресурсов критичным задачам, но все же не могут гарантировать их завершения к указанному сроку.
На практике обеспечить жесткое реальное время очень сложно. Действительно, даже если удастся распланировать процессорное время, при произвольном поступлении процессов в систему невозможно гарантировать бесконфликтное использование других ресурсов компьютера.
Тем не менее, для операционной системы реального времени наиболее важным является именно планирование загрузки процессоров. Что же касается других ресурсов, то здесь либо гарантируется, что конфликт ресурсов не возникнет в силу специфики решаемых задач, либо поддерживается избыток критичных ресурсов (например, памяти).
Общее решение для планирования реального времени не существует, но известен частный случай планирования реального времени для фиксированного набора периодических процессов. Данное частное решение интересно еще и потому, что случай периодических процессов встречается на практике очень часто. Обычно в системе реального времени существует некоторый набор процессов, которые находятся в состоянии блокировки, ожидая наступления некоторого периодического события, например, срабатывания таймера, получения сетевого пакета, срабатывания внешнего датчика и т.п. По наступлению события, процесс выходит из состояния блокировки, выполняет несложные вычислительные действия и снова блокируется.
Пусть в системе одновременно выполняется циклических процессов. Пусть каждый процесс активизируется (получает задание) периодически, через интервал времени , и после активизации требует для выполнения задания процессорного времени.
Частотой поступления заданий для -го процесса называют величину . Согласно дисциплине частотно-монотонного планирования, приоритеты процессов должны быть установлены прямо пропорционально частоте поступления заданий для этих процессов. При этом все процессы гарантированно успеют завершить свое текущее задание до поступления следующего, если выполняется следующее условие:
( 0 )
Величина , входящая в выражение (0), называется коэффициентом загрузки процессора со стороны -го процесса.
2.5 Планирование загрузки процессоров в многопроцессорных системах
Существует три основных способа организации системы управления процессорами в многопроцессорной операционной системе:
организация с главным процессором;
организация с собственным планировщиком для каждого процессора;
симметричная многопроцессорная организация (SMP).
Рассмотрим их более внимательно.
Многопроцессорная система с главным процессором
Такая организация является наиболее простой и может быть получена путем модификации однопроцессорной многозадачной операционной системы.
При организации многопроцессорной системы с главным процессором задачи самой операционной системы, в том числе планировщик, могут выполняться только на одном, главном, процессоре. При этом подчиненные процессоры назначаются для выполнения пользовательских процессов.
Если подчиненный процессор завершил работу, или хочет привлечь внимание главного процессора по какой-либо другой причине, он должен генерировать прерывание, которое будет обработано главным процессором. Естественно, при большом числе подчиненных процессоров, эффективность системы падает, так как они должны ждать своей очереди на обработку прерывания.
При организации многопроцессорной системы с главным процессором легко реализовать взаимоисключения при доступе к системным данным, так как все системные таблицы ведутся только одним процессором.
Подчиненный процессор, завершив работу, должен ждать нового задания от главного процессора. Если подчиненные процессоры нагружаются короткими заданиями, то очень много ресурсов может уйти на обмен с главным процессором, а время простоя подчиненных процессоров будет довольно велико.