Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Розділ 2.doc
Скачиваний:
12
Добавлен:
10.11.2018
Размер:
1.75 Mб
Скачать

2.7.6.Розрізнимість сигналів

В результаті приймання в системах електрозв'язку виникає задача розрізнення сигналів. Наприклад, отримані сигнали S1 та S2 необхідно вказати умови їх розрізнення.

Геометрично кожному сигналу відповідає вектор в фазовому просторі. Ми розглядаємо сигнали однакової тривалості TS1 = TS2! (Інакше їх легко розділити по часу.)

Величина

повністю визначає різницю між сигналами, чим «d» більше, тим більша різниця між сигналами

d2 = <енергія 1-го сигналу> -2 * <взаємна кореляція між сигналами> +

< енергія 2-го сигналу >

Якщо енергія сигналів однакова

Е1 = Е2 = Е

То, ввівши коефіцієнт кореляції

,

отримаємо

d2 = 2E (1 – ρ12).

Ясно, що «d» існує, якщо .

Тобто, для того щоб сигнали можна було розрізнити необхідно, щоб

ρ12 < 1!

Відмітимо: для ортогональних сигналів, (аналогія з ортогональними функціями)

реалізується умова розділення.

Найкраще розділяються взаємно протилежні сигнали, коли S1(t) = -S2(t)

Для них

d2 = 2·2E

Для ортогональних

d2 = 2E·1

2.8. Інформаційні характеристики сигналів та завад

Кількість інформації, яка може бути одержана в процесі електрозв'язку на виході лінії зв'язку залежить в великій мірі від впливу завад.

Зв'язок між параметром сигнал/шум та кількістю інформації розглянемо на наступному прикладі.

Вважаємо, що точність вимірювання сигнала не може бути вищою за рівень шуму, тобто похибка менша за ефективне значення напруги шуму, яка виражається через потужність шуму за формулою

Uеф з = де Pз потужність завади.

Нехай Рс – потужність сигналу. Тоді

Рзаг. = Рс + Рз – загальна потужність прийнятого сигнала при опорі навантаження 1 (Ом).

Uзаг = – напруга (середньоквадратична) загального сигнала може бути проквантована на рівні, які не менші.

Кількість рівнів квантування N

Тобто Рз визначає рівень квантування. Найбільша кількість інформації, що передається кожним мпульсом за Хартлі-Шиноном

І1 = logN =

Якщо передано "k" імпульсів, то кількість інформації в "k" раз більша

Іk = k·logN =

Згідно теореми Котельнікова в смузі частот ΔF можна передати 2ΔF незалежних імпульсів в 1 сек. тобто

I = за 1 сек.

В залежності від статистичних властивостей сигналу і враховуючи те, що в переважній більшості випадків можна використовувати наближення

1 + .

Тобто кількість інформації ІΔF, що передається може бути збільшена або за допомогою або розширення смуги частот ΔF, або ж за допомогою збільшення відношення

Тому, для збільшення інформаційного потоку, більш доцільно використовувати широкосмугові сигнали.

За відрізок часу ΔТ, кількість інформації

І = ΔT ·ΔF·log= log,

де - база сигналу . Останнє співвідношення прийнято називати формулою Хартлі-Шенона (основне співвідношення теорії інформації). Якщо основа логарифма береться 2 то інформація вимірюється в бітах.

для основи "е" інформація вимірюється нітах

для основи "10" інформація вимірюється дітах.

Співвідношення між ними:

1 діт = 2,3 ніт = 3,3 біт.

1 біт = 0,69 ніт = 0,3 діт

1 ніт = 1,45 біт = 0,43 діт

Відмітимо, що кількість інформації в системі при збільшенні завад зменшується.