- •Розділ II
- •2.Сигнали та завади, їх математичний опис.
- •2. 1. Сигнал зв’язку і його математична модель.
- •2.1.1.Класи сигналів.
- •2.1.2.Складні сигнали.
- •2.1.3.Неперервні, дискретні та цифрові сигнали.
- •2.1.4.Дискретні.
- •2.2 Елементи узагальненої спектральної теорії періодичних сигналів.
- •2.2.1.Ряди Фур’є.
- •2.2.2.Спектральна діаграма та спектр періодичного сигналу.
- •2.3 Спектральне представлення неперіодичних сигналів. Інтегральне представлення Фур'є
- •2.3.1.Фізична суть спектральної густини амплітуд.
- •2.4. Ряд і теорема в.0.Котельникова. Дискретизація неперервних сигналів. Ряд Котельникова.
- •2.4.1.Ряд Котельникова
- •2.4.2.Енергія сигналу, визначена через його значення в окремих точках.
- •2.4.3.Особливості застосування теореми Котельникова, Фізична суть і ще раз.
- •2.4.4.Теорема Котельникова в електрозв’язку, багатоканальний варіант (без).
- •2.5. Випадкові сигнали та завади. Основні поняття.
- •2.6. Флуктуаційний шум.
- •2.6.1.Обчислимо імовірність того, що випадкова величина матиме значення вище порогового u0
- •2.7. Числові характеристики сигналів та завад.
- •2.7.1.Енергетичні характеристики
- •2.7.2.Розрахунки середньої потужності за її спектром
- •2.7.3.Рівні сигналів та завад.
- •2.7.4.Динамічний діапазон і коефіцієнт амплітуди
- •2.7.5.Тривалість та ширина спектру сигналу (завади)
- •2.7.6.Розрізнимість сигналів
- •2.8. Інформаційні характеристики сигналів та завад
- •2.8.1.Вплив завад на характеристики системи електрозв'язку.
- •2.8.2.Коефіцієнт шуму в каналі зв'язку
- •2.8.3.Міра шуму
- •2.9. Первинні сигнали електрозв'язку
2.7.6.Розрізнимість сигналів
В результаті приймання в системах електрозв'язку виникає задача розрізнення сигналів. Наприклад, отримані сигнали S1 та S2 необхідно вказати умови їх розрізнення.
Геометрично кожному сигналу відповідає вектор в фазовому просторі. Ми розглядаємо сигнали однакової тривалості TS1 = TS2! (Інакше їх легко розділити по часу.)
Величина
повністю визначає різницю між сигналами, чим «d» більше, тим більша різниця між сигналами
d2 = <енергія 1-го сигналу> -2 * <взаємна кореляція між сигналами> +
< енергія 2-го сигналу >
Якщо енергія сигналів однакова
Е1 = Е2 = Е
То, ввівши коефіцієнт кореляції
,
отримаємо
d2 = 2E (1 – ρ12).
Ясно, що «d» існує, якщо .
Тобто, для того щоб сигнали можна було розрізнити необхідно, щоб
ρ12 < 1!
Відмітимо: для ортогональних сигналів, (аналогія з ортогональними функціями)
реалізується умова розділення.
Найкраще розділяються взаємно протилежні сигнали, коли S1(t) = -S2(t)
Для них
d2 = 2·2E
Для ортогональних
d2 = 2E·1
2.8. Інформаційні характеристики сигналів та завад
Кількість інформації, яка може бути одержана в процесі електрозв'язку на виході лінії зв'язку залежить в великій мірі від впливу завад.
Зв'язок між параметром сигнал/шум та кількістю інформації розглянемо на наступному прикладі.
Вважаємо, що точність вимірювання сигнала не може бути вищою за рівень шуму, тобто похибка менша за ефективне значення напруги шуму, яка виражається через потужність шуму за формулою
Uеф з = де Pз потужність завади.
Нехай Рс – потужність сигналу. Тоді
Рзаг. = Рс + Рз – загальна потужність прийнятого сигнала при опорі навантаження 1 (Ом).
Uзаг = – напруга (середньоквадратична) загального сигнала може бути проквантована на рівні, які не менші.
Кількість рівнів квантування N
Тобто Рз визначає рівень квантування. Найбільша кількість інформації, що передається кожним мпульсом за Хартлі-Шиноном
І1 = logN =
Якщо передано "k" імпульсів, то кількість інформації в "k" раз більша
Іk = k·logN =
Згідно теореми Котельнікова в смузі частот ΔF можна передати 2ΔF незалежних імпульсів в 1 сек. тобто
I = за 1 сек.
В залежності від статистичних властивостей сигналу і враховуючи те, що в переважній більшості випадків можна використовувати наближення
1 + ≈ .
Тобто кількість інформації ІΔF, що передається може бути збільшена або за допомогою або розширення смуги частот ΔF, або ж за допомогою збільшення відношення
Тому, для збільшення інформаційного потоку, більш доцільно використовувати широкосмугові сигнали.
За відрізок часу ΔТ, кількість інформації
І = ΔT ·ΔF·log= log,
де - база сигналу . Останнє співвідношення прийнято називати формулою Хартлі-Шенона (основне співвідношення теорії інформації). Якщо основа логарифма береться 2 то інформація вимірюється в бітах.
для основи "е" інформація вимірюється нітах
для основи "10" інформація вимірюється дітах.
Співвідношення між ними:
1 діт = 2,3 ніт = 3,3 біт.
1 біт = 0,69 ніт = 0,3 діт
1 ніт = 1,45 біт = 0,43 діт
Відмітимо, що кількість інформації в системі при збільшенні завад зменшується.