- •1. Определение информации.
- •2.Виды каналов передачи информации
- •18.Импульсные виды модуляции.
- •4.Фазы обращения информации.
- •6.Виды информации. Устранение избыточности информации.
- •5.Структура измерительной информационной системы
- •17.Комбинаторная мера.
- •3.Корреляционный метод фильтрации.
- •10.Демодуляция гармонических колебаний
- •7.Частотная фильтрация
- •9.Модуляция гармонических колебаний
- •8.Меры информации: структурные.
- •11.Статистические меры информации
- •12.Временное разделение каналов
- •13.Семантические меры информации
- •14.Временная фильтрация
- •15.Геометрическая мера
- •16.Квантование сигнала по времени.
- •19.Квантование сигналов по уровню.
- •20.Аддитивная мера Хартли.
- •21.Фильтрация сигналов.
- •22.Импульсные виды модуляции.
- •23. Вероятность и информация.
- •24.Частотное разделение каналов
- •25.Представление импульсных модулированных колебаний во временной и частотной областях
- •26.Энтропия, количество информации по Шеннону.
- •27.Амплитудная модуляция.
- •28.Сигналы и их характеристики.
- •Характеристики сигналов
- •29.Фазовое разделение каналов.
- •30.Виды модуляции: амплитудная балансная
- •31.Детерминированные колебания, их классификация.
- •32.Кодовое разделение каналов
- •33. Частотная модуляция
- •36.Корреляционное разделение каналов
- •34. Теорема Котельникова
- •35. Аналитическое описание периодических сигналов во временной и частотной областях
- •37. Фазовая модуляция
- •38. Аналитическое описание импульсных сигналов во временной и частотной областях.
- •41. Частотная фильтрация.
- •43 . Базисные функции.
- •45. Демодуляция чм гармонических колебаний
- •54) Корреляционная функция
- •48. Случайные величины и процессы
- •49. Частотно-импульсная модуляция. Спектр и полоса частот
- •51. Амплитудно-импульсная модуляция. Спектр и полоса частот
- •52) Передача информации
- •50. Эргодические процессы.
- •55) Широтно-импульсная модуляция. Спектр и полоса частот.
- •56) Угловые виды модуляции.
- •62. Спектр чим колебаний.
- •59. Аналитическое описание импульсных сигналов во временной и частотной областях.
- •57. Информационное содержание сигнала.
- •61. Способы повышения помехоустойчивости.
- •58. Спектры случайных колебаний.
14.Временная фильтрация
Оптимальная частотно-временная фильтрация. Методами обобщенного вариационного исчисления синтезирован частотно-временной фильтр, состоящий из перемножителя на известное опорное напряжение и включенного за ним стационарного фильтра. Показано, что корреляционный прием и согласованная фильтрация являются частными предельными случаями частотно-временного фильтра. При помощи понятия функции спектральной корреляции анализируется физический принцип работы частотно-временного фильтра. Показана возможность применения частотно-временного фильтра в спектральном дискриминаторе временных интервалов. Структура некоторых приемных устройств, например, приемников американской спутниковой навигационной системы GPS, включает в себя коррелятор. В корреляторе, являющемся оптимальным приемником при наличии белого шума (но не узкополосной помехи в виде расстроенной несущей), осуществляется умножение входного процесса (сигнала и шума) на копию сигнала с последующим интегрированием. Рассмотрим задачу частотно-временной фильтрации, которая заключается в умножении входного процесса на некоторое известное опорное напряжение (как и в перемножителе коррелятора), не уменьшающее энергию сигнала, и последующей линейной фильтрации (аналогично интегрированию в корреляторе) стационарным фильтром. Отклики частотно-временного фильтра на входной сигнал и шум можно представить в виде (1) и (2) где - опорное напряжение; - импульсная переходная функция стационарного фильтра. Таким образом, ядра операторов (1,2) представлены в виде произведения k(t, t )=r (t )h(t-t ), где r - заданная известная функция, а h(t-t ) подлежит оптимизации. При оптимизации будем использовать...
15.Геометрическая мера
Определяет максимально возможное количество информации в заданных объемах. Единица измерения – информационный элемент. Мера может быть использована для определения информационной емкости памяти компьютера. В этом случае в качестве информационного элемента выступает минимальная единица хранения – бит. Список самых распространенных более крупных единиц и соотношение между ними приведено ниже:
8 бит = 1 байт (сокращенно б или Б),
1024 Б = 1 килобайт (сокращенно Кб или К),
1024 К = 1 мегабайт (сокращенно Мб или М),
1024 М = 1 гигабайт (сокращенно Гб или Г).
Тогда, например, объем винчестера – 3 гигабайта; объем основной памяти компьютера – 32 мегабайта и т.д.
Пример 1. Пусть сообщение
5555 6666 888888
закодировано одним из специальных методов эффективного кодирования – кодирование повторений – и имеет вид:
5(4) 6(4) 8(6) .
Требуется измерить информацию в исходном и закодированном сообщениях геометрической мерой и оценить эффективность кодирования.
В качестве информационного элемента зададимся символом сообщения. Тогда:
I(исх.) = l(исх.) = 14 символов;
I(закод.) = l(закод.) = 12 символов,
где I(исх.), I(закод.) – количества информации, соответственно, в исходном и закодированном сообщениях;
l(исх.), l(закод.) – длины (объемы) тех же сообщений, соответственно.
Эффект кодирования определяется как разница между I(исх.) и I(закод.) и составляет 2 символа.
Очевидно, геометрическая мера не учитывает, какими символами заполнено сообщение. Так, одинаковыми по количеству информации, измеренной геометрической мерой, являются, например, сообщения «компьютер» и «программа»; а также 346 и 10В.
Геометрическая структурная мера информации.
Количество информации измеряется путем измерения длины, площади или объема геометрической модели в качестве дискретных единиц – квантов. Можно определить потенциальное, т.е. максимально возможное количество информации в заданных структурных габаритах, которые называются информационной емкостью исследуемой части информационной системы. Она может быть представлена числом, показывающим количество квантов в массиве информации. Если дискретные отсчеты осуществляются по осям X, N, T через интервалы ΔX, ΔN, ΔT, то непрерывные координаты распадаются на элементы – кванты, количество которых будет: mx=x/Δx ; mn=N/ΔN; mT= T/ΔT
Количество информации: M=mx mN mT