Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Цель и суть любого кодирования.doc
Скачиваний:
5
Добавлен:
01.08.2019
Размер:
472.06 Кб
Скачать

42) Рассмотрим информирование, при котором имеются сообщения, принадлежа­щие только информационным цепям и не принадлежащие ни к Одной из кодовых цепей. Такие сообщения называются парасообщениями.

При этом параоригинал х3 находится в цепи оригиналов, а параобраз vs - в цепи образов (рис. 1.14а).

Параинформация содержится в ассоциации, в которой одно из сообщений - парасообщение.

Параинформирование - это информирование, в котором участвуем параин­формация (рис. 1.14а).

Рис. 1.14. Параинформирование: а - паратрансинформирование, б и в- парадезинформирования, соответственно симуляционное и диссимуляционное, г ид- конфузионное парадезинформирование; л:3 и v3- парасообщения, соответст­венно параоригинап и параобраз; Jxi3, J^iz, J,u, Лгз - параинформации

В зависимости от числа параинформаций в оригиналах и образах будем разли­чать симуляционное, диссимуляционное и конфузионное парадезинформирова- аия (рис. 1.146, в, г, д); также следует различать симуляционную парадезин- формацию (рис. 1.146) и отсутствие параинформации в образах при наличии их в оригиналах, называемое диссимуляционной парадезинформацией (рис. 1.14в).

43) При структурном подходе измерение информации осуществляется простым подсчетом числа сообщений (информационных элементов), составляющих ин­формационный массив, или количеством преобразований сообщений (связей между информационными элементами), или числом комбинаций, которые мож­но реализовать из этих сообщений (элементов). Этот подход применяется для оценки ёмкости информационных систем без учёта условий их применения. К та­ким системам относят средства формирования, передачи, обработки, преобразо­вания и хранения сообщений.

При статическом подходе количество информации ставится в зависимость от вероятности появления сообщений. Такой подход позволяет оценить инфор­мационные возможности систем с учетом конкретных статистических свойств сообщений и помех. Подчеркнём, что статистическая теория передачи сообще­ний, называемая обычно (статистической) теорией информации, является в на­стоящее время наиболее развитым направлением в общей теории информации. Однако этот подход описывает далеко не все информационные явления даже в технических системах.

Семантический подход предназначен для учёта целесообразности, ценности, полезности, существенности и содержательности информации, для оценки эф­фективности логического опыта. Например, более ценной можно считать ту ин­формацию, которая содержится в более короткой программе из возможных программ, ведущих к одной и той же цели из заданного исходного положения

44) К структурным мерам информации относятся: геометрическая, комбинаторная и аддитивная.

Геометрическая мера информации употребляется в измерении «длины ли­нии», «площади» или «объёма» данного информационного массива (комплекса) в единицах дискретных элементов (сообщений) этого массива. Этой мерой обычно измеряют информационную емкость массива, комплекса и т.п.

Комбинаторная мера информации употребляется для оценки возможностей систем, в которых передача и хранение информации осуществляется при помощи различных комбинаций из набора сообщений. Заметим, что сопоставление сооб­щениям из большого их множества (алфавита) комбинаций из других сообщений меньшего, множества (алфавита) является одним из способов кодирования, а са­ми комбинации (группы сообщений, символов) обычно называются кодовыми комбинациями или кодовыми словами.

В комбинаторике рассматривают различные виды соединений из элементов. сочетания из т элементов по п различаются составом элементов. Перестановки из т элементов различаются их порядком; возможны перестановки с неоднократ­ными повторениями некоторых элементов. Размещения из т элементов по и элементов различаются составом элементов и их порядком. Возможны размеще­ния с повторениями одинаковых элементов; число таких размещений N = т".

Аддитивная мера информации или «мера Хартли» находит широкое приме­нение. Для рассмотрения этой меры введём понятия глубины и длины кодового слова или числа.

Глубина т кодового слова или числа - это количество различных сообщений (элементов, состояний системы, знаков, символов), содержащихся в принятом алфавите. Глубина числа соответствует основанию позиционной системы счис­ления.

Длина п кодового слова или числа - это количество повторений символов ал­фавита для образования данного кодового слова или числа. Длина числа соответ­ствует принятой разрядности системы счисления. Таким образом, мера Хартли удобна благодаря свойству аддитивности, ко­торое обеспечивает возможность сложения и пропорциональности количества информации к длине кодового слова.

45) В соответствии с теорией Хартли информация - это особого пода логическая инструкция, набор указаний или программа для выбора, поиска, идентификации определённого сообщения (состояния) из некоторого их множества. Заметим, что слово «идентичный» означает «тождественный», «одинаковый». Соответст­венно идентификация - это установление тождества, одинаковости, т.е. отожде­ствление, приравнивание, уподобление. Ниже будет показано, что «информация по Хартли» - это лишь один из двух типов информации, так называемая «иден­тифицирующая информация», в отличие от «описательной». Однако здесь важно заметить, что Хартли определил информацию как определённого рода преобра­зование, переводящее приёмник из одного состояния в другое.

«Информация по Хартли» - это про­грамма по выбору, поиску, идентификации объекта «методом последова­тельного деления на два». Такой метод идентификации называют также дихо­томической или бинарной процедурой поиска.

25) Различают следующие две модели помех (два типа помех):

а) аддитивные помехи формируют смесь сигнала с помехой путем алгебраического суммирования их амплитуд:

fcn(t)=f*(t)+-fn(t), где f„(t) - амплитуда помехи;

б) мультипликативные помехи формируют смесь сигнала с помехой путем перемножения их значений:

fcn(t)=k*f*(t)*fn(t) ; где K - масштабный коэффициент.

Если известен характер изменения помех, то минимальную величину шага квантования можно определить численно. При моделировании часто имитируется случайная помеха с нормальным (гауссовым) распределением, закон которого характеризуется двумя параметрами m и b, где m - математическое ожидание (величина постоянной составляющей помехи); b - среднеквадратическое отклонение - СКО (интенсивность случайной составляющей помехи).

Обычно в системах передачи данных помеха бывает именно нормально распределенной с нулевым математическим ожиданием. Помеха может быть рассеяна более или менее сильно, но площадь под кривой распределения должна быть одинаковой и соответствовать вероятности достоверного события - единице. Степень рассеивания случайной величины (помехи) определяется значением среднеквадратического отклонения b.

При наложении такой помехи на квантованный сигнал последний становится случайной величиной fcn(t) с математическим ожиданием, равным его уровню, и среднеквадратическим отклонением помехи

24) 1-й способ квантования - путем соотнесения исходного значения сигнала с ближайшим значением уровня.

В этом случае квантование происходит по методу соотнесения с ближайшим значением уровня. Этот способ квантования аналогичен округлению чисел до ближайшего целого. При таком способе вместо исходного непрерывного сигнала мы получим квантованный сигнал, представленный временной диаграммой на рис.1.5.

f(t) - исходный непрерывный сигнал; f*(t) - квантованный сигнал;

ft, fi+1 - значения соседних порогов квантования (пунктир);

ft - шаг квантования, ∆ fi =fi+1 - fi;

Таким образом, очевидно, что в Процессе квантования неизбежно возникает принципиальная или методическая ошибка квантования - шум квантования, ее величина для момента времени t определяется в виде ∆f(t)=f(t)-f*(t)

Для этого способа ошибка квантования не превышает половины шага квантования, а ее значения могут быть разных знаков

2-й способ квантования - путем соотнесения исходного значения с ближайшим "снизу" значением уровня. В этом случае i-е пороговое значение совпадает со значением (i+1)-го уровня. Данный способ аналогичен округлению числа до ближайшего целого снизу.

Ошибка квантования всегда положительна (∆f(t) > 0) и не превышает величину шага квантования (∆f(t) < ∆f).

3-й способ квантования - путем соотнесения исходного значения с ближайшим "сверху" значением уровня. Пороги и уровни совпадают по номерам и значениям. Шум квантования всегда отрицательный (∆f(t)< 0) и не превышает величину шага квантования. Этот способ аналогичен округлению числа до ближайшего целого сверху.

Равномерным квантованием называется такое квантование, при котором шаг квантования есть постоянная величина. В большинстве случаев применяется равномерное квантование.

Из трех способов квантования первый дает минимальную среднюю ошибку квантования при одном и том же шаге квантования, поэтому на практике часто используется именно этот способ.

23) Квантованием, по уровню называют дискретизацию множества значений непрерывного сигнала по уровню, то есть по амплитуде параметра. Идея квантования по уровню заключается в следующем. Весь диапазон возможных изменений сигнала (функции) разбивается на N различимых величин - уровней квантования. В результате квантования сигнала каждое из его значений данного интервала округляется до некоторого уровня. Порогами квантования называются величины, при сравнении с которыми исходного непрерывного сигнала в процессе квантования определяется его принадлежность к уровню квантования. Величина, представляющая собой разность между двумя соседними уровнями, называется шагом квантования. Замена исходных значений функции соответствующими дискретными значениями - уровнями квантования - вносит ошибку квантования, называемую шумом квантования.

Для обработки непрерывного сигнала на цифровой машине необходимо предварительно преобразовать его в последовательность чисел с помощью аналого - цифрового преобразователя (АЦП). Другое название АЦП - преобразователь "аналог-код" В таком преобразователе осуществляются следующие действия:

  • квантование сигнала по уровню (по амплитуде);

-дискретизация сигнала по времени;

-преобразование дискретного сигнала в двоичное число;