- •1.1.2. Определение априорной вероятности
- •Задания для самостоятельной работы
- •1.1.3. Определение апостериорной вероятности (статистической вероятности или частоты
- •1.1.4. Условная вероятность
- •1.1.5. Полная вероятность
- •1.2. Случайные величины
- •1.2.1. Дискретные случайные величины
- •Задания для самостоятельной работы
- •1.2.2. Непрерывные случайные величины
- •1.3. Системы случайных величин
- •1.3.1. Законы распределения систем случайных величин
- •1.3.2. Определение числовых характеристик системы случайных величин
- •1.4. Случайные функции
- •1.4.1. Непрерывные случайные функции (процессы)
- •1.4.2. Определение случайных функций
- •1.4.3. Дискретные случайные процессы
- •1.4.3.1. Потоки событий
- •1.4.3.2. Марковские процессы с дискретными
- •Расчет цепи Маркова для стационарного режима
- •Для того чтобы система перешла из состояния в состояние, нужно, чтобы одна из трех эвм за время вышла из строя.
- •Глава 2. Прикладные вероятностные теории
- •2.1. Основы теории информации
- •2.1.1. Энтропия как мера неопределенности
Глава 2. Прикладные вероятностные теории
2.1. Основы теории информации
Теория вероятностей, определившая математический аппарат описания случайных объектов и явлений, заложила основу целого ряда теорий, получивших весьма распространенный прикладной характер. Многие из этих теорий определили, в свою очередь, математические основы современных информационных технологий. В ряду этих теорий важнейшее место занимает теория информации, в основе которой труды К. Шеннона, его вероятностная интерпретация количественной меры информации. Характерно то, что изначальным понятием, или категорией, этой теории являетсянеопределенность, в качестве меры которой была принятаэнтропия.
2.1.1. Энтропия как мера неопределенности
Неопределенность события определяется вероятностью его появления, неопределенность случайной величины численной характеристикой функции плотности вероятностей, например вторым центральным моментом (или дисперсией). Однако для случайных объектов или явлений, состояния которых различаются качественно, а не количественно, использование дисперсии невозможно. В общем случае мера неопределенности, связанная с распределением вероятности, должна быть некоторой его числовой характеристикой, не зависящей от того, в какой шкале измеряются реализации случайного объекта или явления. В качестве такой меры К. Шеннон предложил использоватьэнтропию Ндля случайного объекта (или явления):
, |
(2.1) |
где вероятности случайных событий, характеризующих возможные состояния случайного объекта или явления.
1 Как правило, при априорной численной оценке проявления элементарных случайных событий принимается (равновероятные исходы). При этом будем предполагать, что число элементарных исходов N конечно.
1 События образуют полную систему событий, если.
62 63