- •1. Передача информации между двумя оконечными устройствами. Тип соединения оконечных устройств
- •2. Основные определения: информация, сообщение, система связи, сигнал, алфавит.
- •3. Обобщенная структура схемы системы связи
- •4. Источники сообщения в системах связи. Вероятностный характер источников сообщений.
- •5. Форматирование информации. Форматирование текстовых данных. Существующие стандарты.
- •6. Передача сообщений по каналу, искажения, краевые искажения, дробление
- •7. Аналоговые источники сообщений. Преобразование аналоговых сигналов в цифровые. Квантование по уровню. Ошибка квантования.
- •8. Дискретизация аналоговых сигналов по времени. Понятие о теореме Котельникова.
- •9. Преобразование аналоговых сигналов в цифровые. Дискретизация по методу «выборка-хранение». (доработать)
- •10. Сигнал, как реализация процесса. Классификация процессов.
- •11. Классификация процессов. Детерминированные процессы. Гармонические и переходные непериодические процессы.
- •12. Полигармонические и непериодические процессы их спектральные характеристики.
- •13. Определение случайного процесса. Непрерывные и дискретные случайные процессы.
- •14. Измерение случайных процессов.
- •15. Числовые характеристики случайных процессов, их инженерно-физический смысл.
- •16.Законы распределения и основные характеристики случайных процессов
- •17. Автокорреляционная функция случайного процесса. Примеры автокорр. Функций.
- •18. Взаимная корреляционная функция случайных процессов. Примеры применения корреляционных характеристик.
- •19. Усреднение по ансамблю и по времени. Эргодическое свойство случайных процессов.
- •20. Стационарность случайных процессов. Стационарность в широком и узком смыслах.
- •21. Информационные модели сигналов. Формула Хартли.
- •22. Информационные модели сигналов. Формула Шеннона.
- •23. Энтропия источника сообщений. Свойства энтропии источника дискретных сообщений.
- •24. Избыточность при передаче сообщений. Роль избыточности при передаче информации.
- •25. Математические модели сигналов. Временное и частотное представление сигналов.
- •26. Ряд Фурье по произвольной ортогональной системе функций.
- •31. Спектральные характеристики непериодического сигнала. Прямое и обратное преобразования Фурье.
- •32. Оценивание спектральной плотности с помощью дпф
- •33. Дискретное преобразование Фурье (дпф). Гармонический анализ.
- •34. Примеры ортогональных базисов. Функции Уолша.
- •35. Модуляция. Зачем она нужна
- •36. Амплитудная модуляция.Спектр ам сигнала. Примеры модуляторов.
- •37 Амплитудно-модулируемый сигнал сложной формы, его спектр.
- •38 Демодуляция ам сигнала. Работа простейшего амплитудного детектора.
- •43. Спектр колебаний с угловой модуляцией
- •44. Сравнение методов амплитудной и угловой модуляций
- •45. Двоичное представление информации. Механизм восстановления двоичных импульсов.
- •46. Спектральные характеристики случайных процессов.
- •47. Преобразование кодов.
- •48. Корректирующие коды. Ход Хемминга
- •49. Неравномерные коды. Код Хаффмана.
- •50. Неравномерные коды. Код Шеннона-Фано
- •51. Дискретизация аналоговых сигналов по времени. Понятие о теореме котельникова.
- •52. Спектр прямоугольного сиганала
- •53. Свойства энтропии источника дискретных сообщений.
20. Стационарность случайных процессов. Стационарность в широком и узком смыслах.
Стационарный случайный процесс. Случайный процесс X(t) называется стационарным, если все его вероятностные характеристики не меняются с течением времени t (так, например, распределение вероятностей величины X(t) при всех t является одним и тем же, а совместное распределение вероятностей величин X(t1) и X(t2) зависит только от продолжительности промежутка времени t2—t1, т. е. распределения пар величин {X (t1), X (t2)} и {X (t1 + s), X (t2 + s)} одинаковы при любых t1, t2 и s и т.д.).
К нестационарным случайным процессам относятся все случайные процессы, не удовлетворяющие условиям стационарности. Свойства нестационарных случайных процессов зависят от времени и могут быть установлены только путем усреднения в отдельные моменты времени по ансамблю выборочных функций.
Стационарные случайные процессы - процессы, статистические характеристики которых одинаковы во всех временных сечениях. Говорят, что случайный процесс строго стационарен (или стационарен в узком смысле), если его многомерная плотность вероятности p(x1, х2, .... хп , t1, t2, .... tn) произвольной размерности n не изменяется при одновременном сдвиге всех временных сечений t1,t2,tn вдоль оси времени на одинаковую величину τ: p(x1, х2, .... хп , t1, t2, .... tn)= p (x1, х2, .... хп , t1+ τ, t2+ τ,..., tn+ τ) при любом τ.
Если же ограничить требования тем, чтобы от временного сдвига не зависели лишь одномерная и двумерная плотности вероятности, то такой случайный процесс будет стационарен в широком смысле. Понятно, что из стационарности в узком смысле следует стационарность в широком смысле, но не наоборот.
Для стационарного случайного процесса математическое ожидание и дисперсия не зависят от времени, а корреляционная функция зависит не от самих моментов времени, а только от интервала между ними τ = t2- t1
Rx(t1, t2) = Rx(t2 – t1) = Rx(τ).
По этой причине при записи статистических параметров стационарного случайного процесса можно опускать обозначения фиксированных моментов времени: тх, Dx, Кх(τ), Rx (τ).
21. Информационные модели сигналов. Формула Хартли.
Информация проявляется, хранится и передается от одного объекта к другому в материально - энергетической форме в виде сигналов. Сигнал – физический процесс, используемый для передачи сообщений. Сигнал формируется с помощью изменения какого-либо физического параметра. Сигнал всегда описывается как функция t. Сигналом, как материальным носителем информации, может быть любой физический процесс (электрический, магнитный, оптический, акустический и пр.), определенные параметры которого (амплитуда, частота, энергия, интенсивность и др.) однозначно отображают информационные данные (сообщения).
Формула Хартли.
Количественная мера информации. Единицу количественной меры информации - БИТ (сокращение binary digit - двоичная цифра), впервые предложил Р. Хартли в 1928 году. 1 бит - это информация о двух возможных равновероятных состояниях объекта, неопределенность выбора из двух равновероятных событий. Математически это отображается состоянием 1 или 0 одного разряда двоичной системы счисления. Количество информации Н (в битах), необходимое и достаточное для полного снятия неопределенности состояния объекта, который имеет N равновозможных состояний, измеряется как логарифм по основанию 2 из числа возможных состояний: H = log2 N. Соответственно, двоичный числовой информационный код одного из N возможных состояний объекта занимает Н двоичных разрядов.
Свойство аддитивности: неопределенность объединенного источника равна сумме неопределенностей исходных источников, что соответствует интуитивному требованию к информации: она должна быть однозначной, а ее количество должно быть одним и тем же независимо от способа задания.
Основание логарифма не имеет принципиального значения и определяет только масштаб или единицу неопределенности.
В десятичном исчислении единицей информации является один десятичный разряд - ДИТ.