- •Содержание
- •Глава 1
- •1.1. Основные понятия и определения теории надежности
- •1.2. Модели потоков отказов и сбоев
- •1.3. Функции, характеристики и классификация систем
- •1.4. Алгоритмы контроля асоИиУ
- •Глава 2
- •2.1. Общие сведения о каналах передачи данных
- •2.2. Модели каналов передачи и хранения данных
- •2.3. Коды и кодирование: основные понятия и определения
- •2.4. Принципы помехоустойчивого кодирования
- •2.5. Классификация помехоустойчивых кодов.
- •2.6. Примеры линейных помехоустойчивых кодов
- •2.6.1. Код с контролем нечетности
- •2.6.2. Код Хэмминга
- •2.7. Циклические коды (цк)
- •Глава 3
2.2. Модели каналов передачи и хранения данных
Случайный процесс возникновения ошибок в дискретном канале будет полностью описан, если заданы: входной и выходной алфавиты символов, а также совокупность переходных вероятностей вида p=(a*/a), где a – символ на входе канала и a*– символ на выходе канала, а p=(a*/a) – вероятность приема символа a* при условии, что передан символ a. Вероятности переходов, связывающие входные и выходные символы, могут быть заданы в виде матрицы переходных вероятностей, которая для двоичного канала, имеет вид:
. (2.1)
Здесь и – вероятности безошибочной (достоверной) передачи символов «0» и «1», а и – вероятности искажения (конверсии) передаваемых символов «0» в «1» и «1» в «0» соответственно.
Для вероятностей (2.1) справедливы равенства
или (2.2)
В правых частях (2.2) указаны только вероятности искажений (ошибок) при передаче по каналу различных символов. Эти равенства можно рассматривать как вероятностную модель реального двоичного канала. Если возможные значения символов входных () и выходных () расположить в узлах графа, соединив эти узлы дугами, отображающими вероятности перехода одного символа в другой, то получим графическое представление модели двоичного канала (рис. 2.2).
Для наиболее часто используемых вероятностных моделей двоичных каналов делается допущение, что конверсии «1» в «0» или «0» в «1» – равновероятны:
или (2.3)
где p – теперь можно назвать просто вероятностью ошибки. Такой двоичный канал называют симметричным (его вероятностная модель приведена на рис. 2.2, б) в отличие от канала, для которого и именуемогонесимметричным (рис.2.2,а).
Рис. 2.2. Вероятностная модель двоичных каналов: а) – несимметричного, б) – симметричного
Из (2.3) следует, что вероятностная модель двоичного симметричного канала полностью определяется единственной величиной – вероятностью ошибки при передаче одного символа . Для нормально функционирующих реальных двоичных каналов p<<0,1.
В современных АСОИиУ значительный объем оборудования занимает память, реализуемая в виде запоминающих устройств (ЗУ). Хранение информации в ЗУ и ее передача по каналам связи являются взаимнооднозначными преобразованиями, при которых входное слово, поступающее в канал передачи или записываемое в ЗУ и слово на выходе из канала передачи или считываемое из ЗУ должны совпадать. Следовательно, ЗУ можно рассматривать как канал хранения данных, в котором в отличие от канала передачи, информация распространяется не в пространстве, а во времени-слово, записанное в ЗУ, считывается из него спустя некоторое время, а не непосредственно. Из сказанного можно сделать заключение об идентичности структурных схем каналов передачи и хранения информации. Учитывая далее случайный характер причин возникновения ошибок в словах, хранящихся в ЗУ (внешние дестабилизирующие воздействия, неисправности в самом ЗУ), как это имеет место и для каналов связи, можно сделать заключение об эквивалентности вероятностных моделей каналов связи и каналов хранения и, следовательно, возможности применения для анализа надежности ЗУ вероятностных моделей двоичного канала связи, приведенных выше.
Из (2.2) с учетом (2.3) следует, что вероятностная модель двоичного симметричного канала полностью определяется единственной величиной – вероятностью ошибки или искажения одного символа p.
Кроме того, если учесть что искажения в каждом конкретном символе n – разрядного двоичного слова при его передаче по каналу связи или хранении в ЗУ равновероятны и происходят независимо от успешности или ошибочности передачи или хранения других символов (т.е. ошибки взаимно независимые), можно полагать, что вероятность P(d=r) одновременного искажения в канале r символов подчиняется биномиальному закону распределения
, (2.4)
где – число искаженных символов (кратность ошибок),
– число сочетаний из символов по ,
– число символов (разрядность) двоичного слова,
– вероятность искажения (ошибки) одного символа.
Из (2.4) следует, что в каналах передачи и хранения данных вероятность ошибки большей кратности меньше вероятности ошибок меньшей кратности, т.е. для вероятностей ошибок справедлив следующий ряд соотношений:
P(d=1)>P(d=2)>P(d=3).
Кроме того, из (2.4) также следует справедливость следующего утверждения – вероятность ошибок кратности зависит от:
– значения – вероятности искажения одного символа,
– общего числа символов в слове – .
Рассмотрим пример, подтверждающий справедливость этого утверждения.
Пример 2.1. Определим значения вероятностей ошибок кратности (0, 1, 2, 3) в 11–и и 16–и разрядных двоичных словах в каналах, для которых вероятности искажения одного символа равны p=0,001 и p=0,01.
Учитывая трудоемкость вычислений непосредственно по выражению (2.4), результаты получим с применением формулы Пуассона:
.
Результаты расчетов сведены в табл. 2.1 и 2.2.
Таблица 2.1
Вероятности ошибок кратности в 11–и разрядных словах
P(d=r) |
0,001 |
0,01 |
Увеличение в () Уменьшение в () |
P(d=0) |
0,989 |
0,895 |
в 1,1 раза |
P(d=1) |
0,0108 |
0,0994 |
в 9,2 раза |
P(d=2) |
0,000054 |
0,0050 |
в 92,5 раза |
P(d=3) |
0,00000016 |
0,000152 |
в 950 раза |
Таблица 2.2
Вероятности ошибок кратности в 16-и разрядных словах
P(d=r) |
0,001 |
0,01 |
Увеличение в () Уменьшение в () |
P(d=0) |
0,984 |
0,851 |
в 1,2 раза |
P(d=1) |
0,015 |
0,137 |
в 9,13 раза |
P(d=2) |
0,0001 |
0,0104 |
в 104 раза |
P(d=3) |
0,00000055 |
0,000491 |
в 892,7 раза |
Из анализа содержащихся в таблицах результатов можно заключить, что с ростом вероятности искажения одного символа происходит перераспределение вероятностей ошибок различной кратности – вероятность получения неискаженного слова, т.е. уменьшается, а вероятности получения слов, искаженных одной и тем более двумя или тремя ошибками увеличиваются.
Так, например, при увеличении от значения 0,001 до 0,01 (в 10 раз), вероятность возникновения в 16-и разрядных словах одинарных ошибок увеличивается в 9,13 раза, а ошибок кратности d=3 в 892,7 раз.
Результаты расчетов, позволяющие оценить влияние на вероятности появления в словах ошибок различной кратности от разрядности слова n приведены в табл. 2.3.
Таблица 2.3
Вероятности ошибок кратности , соответствующие словам разрядности n при р=0,01
-
n
P(d=r)
11
16
Увеличение в ()
Уменьшение в ()
P(d=0)
0,895
0,851
в 1,05 раза
P(d=1)
0,099
0,137
в 1,38 раза
P(d=2)
0,0050
0,0104
в 2,08 раза
P(d=3)
0,000152
0,000491
в 3,23 раза
Из анализа этой таблицы можно заключить, что наращивание разрядности слов n сопровождается аналогичным, как и при росте , но менее выраженным эффектом перераспределения вероятностей – вероятность отсутствия в слове ошибок уменьшается, а вероятности появления ошибок кратности d=1,2,3,… – увеличиваются.