Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Скачиваний:
33
Добавлен:
28.01.2022
Размер:
58.66 Кб
Скачать

9)

1. Амплитудный квадратичный детектор

В этом случае ВАХ диода аппроксимируется полиномом второй степени и, следовательно, для определения спектра тока через диод используется метод "кратных дуг". На вход детектора подаем амплитудно-модулированный сигнал, т.е. выражение для АМ сигнала надо подставить в полином:

i = aU2 = / Uвх(t)= Uам(t) = Um(1+Macos(t)cos(0t) / =

=aU2m(1+Macos(t))2cos2(0t)=aU2m(1+2Macos(t)+ = (8.1)

В соответствии с полученным выражением построим спектр тока через диод (см. рис.8.4):

Ф НЧ выделяет низкочастотные составляющие тока, т.к. его АЧХ, показанная пунктиром на рисунке 8.4 имеет вид:

Следовательно, ФНЧ выделяет:

  • постоянную составляющую с частотой равной 0,

  • полезную составляющую с частотой модулирующего колебания  ,то есть: I= aUm2 MА ,

  • вторую гармонику полезного сигнала с частотой 2, I2* = , которая определяет степень нелинейных искажений полезногосигнала.

Постоянная составляющая легко отделяется разделительной емкостью, которая включается между выходом детектора и входом следующего каскада (обычно, это УНЧ) .

При квадратичном детектировании кроме полезной составляющей с частотой  возникают нелинейные искажения полезного сигнала с частотой 2. Коэффициент нелинейных искажений равен:

Кн.ч.= (8.2)

Чем глубже, т.е. лучше модуляция, тем больше нелинейные искажения.

2. Увеличение энтропии путем увеличения m.

Кодирование - это отображение сообщений совокупностью кодовых символов, которые называются кодовой комбинацией.

Количество различных символов, которые образуют все кодовые комбинации, называют основанием кода - m. 25

Количество символов, образующих данную кодовую комбинацию, называют длиной кодовой комбинации – n.

Общее количество кодовых комбинаций равно: N=mn .

Если m=2, n=1 =>N=21 =2 => возможные комбинации: 1;0.

m=2, n=2 =>N=22 =4=> возможные комбинации: 00;01;10;11.

m=3, n=1 =>N=31 =3=> возможные комбинации: 1; -1; 0.

Физический смысл символов может быть произвольным: это могут быть символы разной частоты, или разной амплитуды, или разной формы и т.д.

Т.к. энтропия характеризует среднее количество информации, которое переносит один кодовый символ, то чем больше энтропия, тем быстрее можно передать заданное количество информации. Используя различные способы кодирования, можно сформировать новый код, у которого энтропия будет больше, чем у исходного кода.

Сформулируем качественно основные способы увеличения энтропии.

1) Наличие корреляционных связей между сообщениями, символами уменьшает энтропию. Для увеличения энтропии осуществляют операцию декорреляции символов, сообщений. Один из способов декорреляции символов - укрупнение сообщений, т.е. символами нового кода будут не отдельные буквы, а целые слова. Корреляционные связи между словами гораздо меньше, чем между символами. Следовательно, укрупненные символы нового кода, соответствующие словам старого кода будут практически некоррелированы, т.е. энтропия нового кода увеличится.

Например, сообщение «удовлетворительно», состоящее из 17 букв, можно закодировать одной цифрой «3». Т.о. скорость передачи информации для этого частного случая увеличится в 17 раз, так как одно и то же количество информации будет передано не 17-ю символами, а только одним символом.

Однако, при этом падает помехоустойчивость приема, так как ошибку при приеме символа «3» исправить невозможно, а ошибка в одном из 17 символов слова «удовлетворительно» практически не изменяет смысла всего сообщения благодаря корреляционным связям между буквами.

Второй способ декорреляции символов - предсказание следующего символа по предыдущим и передача только ошибки предсказания.

2) Неравновероятность сообщений уменьшает энтропию. Для увеличения энтропии надо перекодировать сообщения так, чтобы символы нового кода были практически равновероятны. При этом наиболее вероятные сообщения кодируются наиболее короткими кодовыми комбинациями.

3) Для дальнейшего увеличения энтропии необходимо увеличивать основание кода m, так как для источника (кода) с равновероятными символами максимальное значение энтропии равно Нmax =logm.

10)

1. Частотный модулятор. Схема, спектры сигналов на входе и выходе.

ЧМ сигнал может быть получен с помощью частотного модулятора. Частотный модулятор состоит из автогенератора и элемента с помощью которого изменяется частота автогенерации.

Автогенератор - генератор с самовозбуждением, т.е. усилитель, охваченный цепью положительной обратной связи ( колебания с выхода поступают на вход, поддерживая возникшие колебания).

Для LRC - генератора цепью обратной связи может быть катушка обратной связи.

Элементом, управляющим частотой генератора, в этом случае является варикап (емкость p-n перехода, которая зависит от приложенного напряжения).

Для RC - генератора цепью обратной связи является цепочка RС.

В качестве резистора R используются сопротивления транзисторов, зависящие от приложенного напряжения. Частота генерации RC генератора определяется выражением:

(9.3)

В соответствии с модулирующим НЧ сигналом меняется R, следовательно, меняется частота генерации генератора.

2. Теорема Шеннона

По каналу связи с полосой пропускания F , в котором действует сигнал с мощностью Рс и нормальный белый шум со спектральной плотностью энергии G0, можно предавать информацию со скоростью сколь угодно близкой к пропускной способности канала связи:

При этом вероятность ошибки может быть сделана сколь угодно малой.

Доказательство. Количество взаимной информации содержащейся в процессе z(t) о сигнале u(t) равно:

I(Z;U)=h(Z)-h(X);

Дисперсия белого шума x(t) в полосе F: σ 2 = G0F. Т.к. шум нормальный, то его дифференциальная энтропия равна:

h(X)=0.5 log(2πeσ 2 )

Чтобы энтропия процесса z была максимальной, этот процесс должен быть нормальным случайным процессом, т.е. сигнал тоже должен быть нормальным случайным процессом с дисперсией Рс . Тогда максимальное количество взаимной информации равно : I(Z;U)=0.5 log[2πe(Pc + σ 2 )] - 0.5 log(2πeσ 2 )= =0.5 log(1 + Pc / σ 2 ) ;

Т.к процесс на выходе канала связи финитный по спектру, то он полностью определяется по теореме Котельникова своими отсчетами взятыми через интервал времени T=1/2F. Таким образом в единицу времени следует передавать 2F отсчетов. Каждый отсчёт процесса z(t) несет информацию о сигнале I(z;u). Таким образом за 1с максимальное количество, переданной по КС информации, равно:

С=2F*I (Z;U)=Flog(1+Pc /G0F)

Для того, чтобы вероятность ошибки была сколь угодно малой ( рош→0), необходимо использовать бесконечно длинные кодовые комбинации, т.е время задержки принятия решения бесконечно велико. Из формулы для пропускной способности следует, что при F→ ∞ величина C стремится к пределу равному С∞=Рс log e/G0

Соседние файлы в папке Билеты с ответами