- •1. Основы теории случайных процессов
- •1.1. Семейства случайных величин
- •1.2. Выборочные функции
- •1.3. Теорема Колмогорова
- •1.4. Вещественный параметр. Дискретный случай
- •1.5. Вещественный параметр. Непрерывный случай
- •1.6. Пуассоновский процесс
- •1.7. Общие свойства случайных процессов
- •1.8. Примеры случайных процессов
- •2. Случайные потоки сообщений
- •2.1. Основные понятия
- •2.2. Принципы классификации входящих потоков
- •Определим p1() и p0():
- •Вероятность поступления k и более заявок определяется по формуле
- •2.6.1. Симметричный и примитивный потоки
- •2.6.2. Поток с повторными заявками
- •Вектор, обладающий свойствами (2.20) и (2.21), называется стохастическим. Если его компоненты представляют вероятности состояний системы, то вектор называется вектором состояний системы.
- •Матрица перехода имеет вид
- •2.12. Предельные теоремы для потоков событий
- •2.12.1. Предельная теорема для суммарного потока
- •2.12.2. Предельная теорема для редеющих потоков
- •3. Основы теории систем массового обслуживания
- •3.1. Элементы систем массового обслуживания
- •3.1.1. Виды распределения входящего потока и времени обслуживания
- •3.1.2. Дисциплина обслуживания заявок
- •3.1.3. Канал обслуживания
- •3.1.4. Выходящий поток
- •3.2. Классификация смо
- •3.3. Процессы гибели и размножения
- •3.4. Системы массового обслуживания с отказами
- •3.4.1. Классическая система массового обслуживания с отказами (система Эрланга)
- •Используя нормировочное условие
- •3.4.2. Системы массового обслуживания с отказами и полной взаимопомощью между каналами
- •3.4.3. Системы массового обслуживания с отказами и частичной взаимопомощью между каналами
- •Для сокращения дальнейшей записи введем обозначение
- •Вероятность обслуживания заявки
- •3.4.4. Системы массового обслуживания с отказами и неоднородными потоками
- •3.4.5. Примеры систем массового обслуживания с отказами
- •Решение
- •Вероятность занятости канала
- •Решение
- •Решение
- •Среднее время полной загрузки
- •4. Системы массового обслуживания с ожиданием
- •4.1. Классическая система массового обслуживания с ожиданием
- •С ожиданием (смо с конечной очередью)
- •4.2. Векторная модель с конечной очередью и неоднородными запросами на число мест в очереди
- •4.3. Векторная модель с бесконечной очередью и однородными запросами на число мест в очереди
- •Подставляя сюда (4.10), будем иметь
- •Где коэффициент , с учетом (4.12), имеет вид
- •4.4. Примеры систем массового обслуживания с ожиданием
- •Вероятность обслуживания заявки для смо с отказами
- •Среднее число заявок в системе
- •5. Различные системы массового обслуживания
- •5.1. Система массового обслуживания с ожиданием и приоритетом в обслуживании
- •5.2. Векторная модель системы массового обслуживания с приоритетом
- •5.3. Замкнутая векторная смо с отказами в обслуживании
- •5.4. Исследование и оптимизация управляемой смо
- •5.5. Примеры специальных смо
- •Решение
- •Среднее число ожидающих обычного переговора
- •Оглавление
1. Основы теории случайных процессов
В практике научных исследований и технических разработок случайные процессы в настоящее время занимают столь большое место, что без создания эффективных методов их описания и изучения нельзя говорить о дальнейшем научно-техническом прогрессе.
Дать формальное определение случайного процесса, сочетающее в себе физическую сущность и математическую строгость, чрезвычайно трудно. Интуитивные представления о случайном процессе связаны в основном с непредсказуемостью его мгновенных значений. Математически строгое определение требует введения понятия ансамбля, т.е. бесконечной совокупности реализаций. С физической точки зрения вполне допустимо представление случайного процесса одной реализацией. С математической точки зрения отдельная реализация является детерминированной функцией времени, с помощью которой определить статистические свойства процесса можно лишь при выполнении определенных условий.
Выбор целесообразного уровня строгости описания случайных процессов при решении прикладных задач в значительной степени определяет качество получаемых результатов [1]. Вместе с тем уровень строгости описания должен соответствовать уровню представлений и характеру решаемых задач.
1.1. Семейства случайных величин
С точки зрения практических приложений [2] любая меняющаяся система, находящаяся под влиянием случайных факторов, представляет собой случайный процесс. В соответствии со сказанным случайный процесс может быть охарактеризован как процесс, мгновенное значение которого в произвольный момент времени представляет собой случайную величину [1].
Рассмотрим простой случай, когда состояние системы достаточно хорошо определяется одной количественной характеристикой. Эта величина (t) в каждый фиксированный момент t не является однозначно определенной, как в случае детерминированных систем, а зависит от случайных факторов, которые влияли на систему до момента t. При построении математической модели этого процесса естественно рассматривать (t) в каждый фиксированный момент t как случайную величину, определенную на некотором вероятностном пространстве (, F, P). Когда t меняется в рассматриваемом промежутке времени, получаем семейство случайных величин (t), зависящих от параметра t и определенных на одном и том же вероятностном пространстве. Элементарными событиями в этом вероятностном пространстве будут возможные исходы случайного эксперимента, который определяет поведение системы в целом.
Пусть (, F, Р) – некоторое вероятностное пространство, T – множество значений параметра. Случайным процессом называется конечная вещественная функция (t, ), которая при каждом фиксированном t T является измеримой функцией от .
Легко получить обобщенную форму этого определения в случае, когда для полного описания состояния системы при каждом фиксированном значении параметра t необходимо знать несколько величин 1(t), ..., n(t). Если рассматривать j(t) как компоненты случайного вектора (t, ) = = {1(t, ), ..., n(t, )}, то семейство случайных векторов, получающееся при изменении t на множестве Т, будет определять векторный случайный процесс.
Итак, (t) – случайный процесс. При каждом фиксированном t = t1 случайная величина (t1) = (t1, ) имеет определенное распределение вероятностей, функцию распределения которой обозначим F(x, t1) = P{(t1) x}.
Пусть t1, ..., tn – произвольное конечное множество значений t. Соответствующие случайные величины (t1), ..., (tn) имеют совместную функцию распределения
F(х1, ..., хn, t1, ..., tn) = Р{(t1) х1, ..., (tn) xn}.
Семейство таких совместных распределений для n = 1, 2, ... и всех возможных значений tj называется семейством конечномерных распределений процесса (t). Это одно из основных понятий теории, и многие существенные свойства случайного процесса определяются свойствами семейства его конечномерных распределений. Конечномерные распределения случайного процесса должны удовлетворять условиям симметрии и согласованности.
Условие симметрии требует, чтобы n-мерные функции распределения, введенные выше, были симметричными по всем параметрам (хj, tj), т.е. чтобы эти функции распределения не менялись при одновременной перестановке хj и tj.
Условие согласованности выражается соотношением
= F(xj, ..., xn-1; t1, ..., tn-1),
которое следует из очевидного факта: – множество, определенное неравенствами
(t1) x1, ..., (tn-1) xn-1, (tn) xn,
при xn приближается к множеству
{, (t1) x1, ..., (tn-1) xn-1}.
Два случайных процесса (t) и (t) называются эквивалентными, если при каждом фиксированном t множества значений параметра (t) и (t) являются эквивалентными случайными величинами, так что (t) = (t) с вероятностью единица. Очевидно, семейства конечномерных распределений у эквивалентных процессов совпадают.