Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Новая папка / 35-45

.docx
Скачиваний:
5
Добавлен:
18.02.2016
Размер:
37.93 Кб
Скачать
  1. Критерии оценки точности дискретизации сигналов.

Разность между истинными значениями сигнала x(t) и приближающей P(t), или воспроизводящей V(t) - функцией, представляет собой текущую погрешность дискретизации или соответственно восстановления:

Выбор критерия оценки погрешности дискретизации (и восстановления) сигнала осуществляется получателем информации и зависит от целевого использования дискретизированного сигнала и возможностей аппаратной (программой) реализации. Оценка погрешности может проводиться как для отдельных, так и для множества реализаций сигнала.

Чаще других отклонение воспроизводимой функции V(t) от сигнала x(t) на интервале дискретизации Δti = titi–1 оценивается следующими критериями.

а) Критерий наибольшего отклонения:

где ε(t) – текущая погрешность, определяемая выражением (1).

б) Среднеквадратический критерий, определяемый следующим выражением:

где ε(t)текущая погрешность (1).

Черта сверху означает усреднение по вероятностному множеству,

в) Интегральный критерий как мера отклонения x(t) от V(t) имеет вид:

г) Вероятностный критерий определяется соотношением:

где ε0 – допустимое значение погрешности;

Р0 – допустимая вероятность того, что погрешность не превышает значение ε0.

  1. Равномерная дискретизация. Теорема Котельникова.

Дискретизация по времени выполняется путем взятия отсчетов функции в определенные дискретные моменты времени. В результате непрерывная функция заменяется совокупностью мгновенных значений.

Равномерная дискретизация

Моменты отсчета выбираются на оси времени равномерно. Теорема Котельникова – если аналоговый сигнал имеет ограниченный по ширине спектр, то он может быть восстановлен однозначно и без потерь по своим дискретным отсчётам, взятым с частотой, строго большей удвоенной верхней частоты.

  1. Понятие о кодировании информации.

Код— это набор условных обозначений (или сигналов) для записи (или передачи) некоторых заранее определенных понятий.

Кодирование информации– это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Обычно каждый образ при кодировании (иногда говорят — шифровке) представлении отдельным знаком.

Знак - это элемент конечного множества отличных друг от друга элементов.

Знак вместе с его смыслом называют символом.

Набор знаков, в котором определен их порядок, называется алфавитом. Существует множество алфавитов:

алфавит кириллических букв {А, Б, В, Г, Д, Е, ...}

алфавит латинских букв {А, В, С, D, Е, F,...}

алфавит десятичных цифр{0, 1, 2, 3, 4, 5, 6, 7, 8, 9}

алфавит знаков зодиака {картинки знаков зодиака} и др.

Особенно большое значение имеют наборы, состоящие всего из двух знаков: пара знаков {+, -}, пара цифр {0, 1}, пара ответов {да, нет}

  1. Структурная схема канала передачи информации.

Рис. 1.3. Функциональная схема системы передачи дискретных

сообщений

  1. Понятие о реальном и идеальном канале передачи информации.

ИДЕАЛЬНЫЙ КАНАЛ

Модель идеального канала используется тогда, когда можно пренебречь наличием помех. При использовании этой модели выходной сигнал является детерминированным,  мощность и по­лоса пропускания сигналов ограниченны.

Детерминированный сигнал точно определен в любой момент времени.

Полоса пропускания это разность между максимальной и минимальной частотами сигнала.

РЕАЛЬНЫЙ КАНАЛ

В реальных каналах всегда имеются ошибки при передаче сообщений. Ошибки приводят к уменьшению пропускной способности канала и потере информации. Вероятности появления ошибок во многом определяются искажениями сигналов и влиянием помех.

Сигнал на выходе канала можно записать в следующем виде:

x(t) = μ(t)∙s(t-T)+w(t),

где s(t) – сигнал на входе канала, w(t) – аддитивная помеха, μ(t) – мультипликативная помеха, T – задержка сигнала.

Аддитивная помеха – помеха, прибавляемая к сигналу при передаче его по информационному каналу.

Аддитивные помехи обусловлены флуктуационными явлениями (случайными колебаниями тока и напряжения), связанными с тепловыми процессами в проводах, резисторах, транзисторах и других элементах схем, наводками под действием атмосферных явлений (грозовые разряды ит. д.) и индустриальных процессов (работа промышленных установок, других линий связи и т. д.).

Мультипликативная помеха – помеха, перемножаемая с сигналом.

Мультипликативные помехи обусловлены случайными изменениями коэффициента передачи канала из-за изменения характеристик среды, в которой распространяются сигналы, и коэффициентом усиления схем при изменении питающих напряжений, из-за замираний сигналов в результате интерференции и различного затухания сигналов при многолучевом распространении радиоволн. К мультипликативным помехам следует отнести и "квантовый шум" лазеров, применяемых в оптических системах передачи и обработки информации. "Квантовый шум" лазера вызван дискретной природой светового излучения и зависит от интенсивности излучения, т. е. от самого полезного сигнала.

  1. Гауссовский канал и его разновидности.

ГАУССОВСКИЙ КАНАЛ

Основные допущения при построении такой модели следующие:

–коэффициент передачи и время задержки сигналов в канале не зависят от времени и являются детерминированными величинами, известными в месте приема сигналов;

–в канале действует аддитивная флуктуационная помеха – гауссовский "белый шум" (гауссовский процесс, характеризуется равномерной спектральной плотностью, нормально распределённым значением амплитуды и аддитивным способом воздействия на сигнал).

Гауссовский канал применяют как модель реальных каналов проводной связи и однолучевых каналов без замираний или с медленными замираниями. При этом замирания представляют собой неконтролируемые случайные изменения амплитуды сигнала. Такая модель позволяет анализировать амплитудные и фазовые искажения сигналов и влияние флуктуационной помехи.

ГАУССОВСКИЙ КАНАЛ С НЕОПРЕДЕЛЕННОЙ ФАЗОЙ СИГНАЛА

В этой модели время задержки сигнала в канале рассматривают как случайную величину, поэтому фаза выходного сигнала также случайна. Для анализа выходных сигналов канала необходимо знать закон распределения времени задержки или фазы сигнала.

ГАУССОВСКИЙ ОДНОЛУЧЕВОЙ КАНАЛ С ЗАМИРАНИЯМИ

В этой модели коэффициент передачи канала и фазовую характеристику канала рассматривают как случайные величины или процессы. В этом случае спектр выходного сигнала канала шире спектра входного даже при отсутствии помехи из-за паразитных амплитудной и фазовой модуляций. Такие модели достаточно хорошо описывают свойства радиоканалов различных диапазонов и проводных каналов со случайными, в том числе и переменными параметрами.

ГАУССОВСКИЙ МНОГОЛУЧЕВОЙ КАНАЛ С ЗАМИРАНИЯМИ

Эта модель описывает радиоканалы, распространение сигналов от передатчика к приемнику в которых происходит по различным "каналам" – путям. Длительность прохождения сигналов и коэффициенты передачи различных "каналов" являются неодинаковыми и случайными. Принимаемый сигнал образуется в результате интерференции сигналов, пришедших по разным путям. В общем случае частотная и фазовая характеристики канала зависят от времени и частоты.

ГАУССОВСКИЙ МНОГОЛУЧЕВОЙ КАНАЛ С ЗАМИРАНИЯМИ И АДДИТИВНЫМИ СОСРЕДОТОЧЕННЫМИ ПОМЕХАМИ

В этой модели наряду с флуктуационной помехой учитывают и различного вида сосредоточенные помехи. Она является наиболее общей и достаточно полно отражает свойства многих реальных каналов. Однако ее использование порождает сложность и трудоемкость задач анализа, а также необходимость сбора и обработки большого объема исходных статистических данных.

В настоящее время для решения задач анализа непрерывных и дискретных каналов используются, как правило, модель гауссовского канала и модель гауссовского однолучевого канала с замираниями.

  1. Методика формирования кода Шеннона-Фенно, его достоинства и недостатки.

АЛГОРИТМ ШЕННОНА-ФЕННО

Состоит в том, что расположенные в порядке убывания буквы алфавита делятся на две группы по возможности равной суммарной (в каждой группе) вероятности. Для первой группы символов на первом месте комбинации ставят 0 в качестве первой крайней слева позиции кодовых слов, а элементы второй группы – 1. Далее каждая группа снова делится на подгруппы по тому же правилу примерно равных вероятностей и в каждой подгруппе заполняется вторая слева позиция кодового слова (0,1).Процесс повторяется до кодирования всех элементов алфавита.

ПРЕИМУЩЕСТВА

–простота реализации и, как следствие этого, высокая скорость кодирования/раскодирования/

–удобно кодировать информацию в виде последовательности нулей и единиц, если представить эти значения как два возможных устойчивых состояния электронного элемента: 0 – отсутствие электрического сигнала; 1 – наличие электрического сигнала. К тому же в технике легче иметь дело с большим количеством простых элементов, чем с небольшим числом сложных.

– По методу Ш-Ф получается, что чем более вероятно сообщение, тем быстрее оно образует самостоятельную группу и тем более коротким кодом оно будет представлено. Это обстоятельство обеспечивает высокую экономичность кода Ш-Ф.

НЕДОСТАТКИ

–Для декодирования полученного сообщения, таблицу кодов необходимо отправлять вместе с сообщением, что повысит объем данных конечного сообщения.

–В случае обыкновенного кода (у которого все символы используются для передачи информации), при возникновении ошибки в коде, его расшифровка будет невозможна. Это обусловлено тем, что кодовые комбинации имеют разную длину, и в случае ошибки (заменяя символа 1 на 0, и наоборот) одна или несколько кодовых комбинаций в сообщении могут не совпасть с символами кодовой таблицы.

–Кодирование Шеннона–Фано является достаточно старым методом сжатия, и на сегодняшний день оно не представляет особого практического интереса.

  1. Энтропия источника независимых сообщений.

общая энтропия дискретных источников сообщений Х и У равна сумме энтропий источников.

Hнз(X,Y) = H(X) + H(Y), где Hнз(X,Y) – суммарная энтропия независимых систем, H(X) – энтропия системы X, H(Y) – энтропия системы Y.

  1. Энтропия источника зависимых сообщений.

количество информации об источнике X определяют как уменьшение энтропии источника X в результате получения сведений об источнике Y.

Hз(X,Y) = H(X) + H(Y|X), где Hз(X,Y) – суммарная энтропия зависимых систем, H(X) – энтропия системы X, H(Y|X) – условная энтропия системы Y относительно X.

Энтропия зависимых систем меньше, чем энтропия независимых систем. Если энтропии равны, то имеет место частный случай зависимых систем – системы независимы.

Hз(X,Y) <= Hнз(X,Y) (<= – меньше или равно).

  1. Свойства энтропии. Мера Хартли.

Энтропия - величина всегда положительная и конечная, поотому что значение вероятности находится в интервале от 0 до 1. Н(а) = -Logk P(a) 2. Аддитивность - свойство, согласно которому количество информации, содержащееся в нескольких независимых сообщений равно сумме количества информации, содержащейся в каждом из них. 3. Энтропия равна 0, если вероятность одного из состояний источника информации равна 1, и тем самым состояние источника полностью определено (вероятности остальных состояний источника равны нулю, т.к. сумма вероятностей должна быть равна 1). Формула Хартли определяется: где I — количество информации, бит.

  1. Понятие о производительности источника и скорости передачи информации.

ПРОИЗВОДИТЕЛЬНОСТЬ ИСТОЧНИКА ИНФОРМАЦИИ

При работе источника сообщений отдельные сигналы появляются через интервалы времени, которые в общем случае могут быть не постоянными. Однако, если существует некоторая средняя длительность создания источником одного сигнала, то энтропия источника, приходящаяся на единицу времени, называется производительностью источника информации.

СКОРОСТЬ ПЕРЕДАЧИ ИНФОРМАЦИИ

Это скорость передачи данных, выраженная в количестве бит, символов или блоков, передаваемых за единицу времени.

Теоретическая верхняя граница скорости передачи информации определяется теоремой Шеннона-Хартли.

ТЕОРЕМА ШЕННОНА-ХАРТЛИ

пропускная способность канала C, означающая теоретическую верхнюю границу скорости передачи данных, которые можно передать с данной средней мощностью сигнала S через аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности N равна:

C=B∙log2(1+S/N),

где C – пропускная способность канала, бит/с; B – полоса пропускания канала, Гц; S – полная мощность сигнала, Вт; N – шумовая мощность, Вт.

Соседние файлы в папке Новая папка