- •1. Алгебраические системы, алгебры, классы алгебр и формальные модели. Практическое применение. Помехоустойчивый код как алгебра.
- •2. Алгебраическая операция и её основные свойства. Примеры.
- •3. Классификация алгебр на основе одной операции. Групповой код как алгебра.
- •4. Классификация алгебр на основе двух операций. Примеры.
- •5. Метрическое пространство и его аксиоматика. Практическое применение.
- •6. Примеры метрики; кодовое расстояние (Хемминга).
- •7. Линейное пространство и его аксиоматика; примеры.
- •8. Линейное нормированное пространство и его аксиоматика. Практическое применение.
- •9. Примеры нормы элементов.
- •10. Цель и суть любого кодирования; цели кодирования в технических системах; виды кодов.
- •11. Суть помехоустойчивого кодирования; понятие избыточной информации и её использование.
- •12. Классификация помехоустойчивых кодов.
- •13. Возможные варианты передачи помехоустойчивых слов и числа этих вариантов.
- •14. Варианты разбиения множества n-разрядных кодовых слов при построении корректирующих кодов; способы кодирования и декодирования.
- •15. Понятия минимального Хэммингова расстояния и его величина для кодов, обнаруживающих и исправляющих ошибки. Примеры.
- •16. Понятие вектора ошибки. Виды ошибок. Вероятность r-кратной ошибки в n-разрядном слове.
- •17. Формулы для определения числа избыточных разрядов и границы Хэмминга для оптимальных корректирующих кодов; их суть и связь, примеры использования.
- •18. Построение группового корректирующего кода (на примере).
- •19. Цель и суть любой дискретизации.
- •20. Временная дискретизация и ее виды
- •21. Представление непрерывного сигнала последовательностью импульсов. Ряд Котельникова, функция отсчётов; определение шага дискретизации.
- •22. Представление сигнала спектром гармоник. Ряд ж. Фурье.
- •24. Три способа квантования и соответствующая им величина шума квантования.
- •25. Типы (модели) помех. Влияние помех на квантованный по уровню сигнал.
- •26. Контур управления и его компоненты. Связь процесса управления с информированием.
- •27. Цепь управления и процесс воздействия источника на приёмник как множество; цепи прямой и обратной связи. Определение понятия сообщения; отличия сообщения от информации.
- •28. Виды сообщений в цепи управления; активные и пассивные сообщения, примеры; их использование в процессе управления.
- •29. Понятие и определение ассоциации сообщений в цепи управления; понятие, определение и виды преобразований сообщений; примеры.
- •30. Кодовая ассоциация сообщений. Определение понятия код как преобразования; место кодов в цепи управления; отличие кодов от информации, от кодовых слов.
- •31. Виды кодов в цепи управления. Примеры.
- •32. Определение операционного и основного кодов; отличие последнего от основной информации; эффект использования основного кода.
- •33. Определение ассоциационного кода; множества ассоциационных кодов. Примеры. Факторы ускорения пользованием множеств ассоциационных кодов; информационно-поисковые системы.
- •34. Информационная ассоциация сообщений; определение понятия информации как преобразования; место информации в цепи управления; отличие информации от кодов.
- •35. Понятие, определение и примеры информационной цепи сообщений.
- •36. Виды информации в цепи управления.
- •37. Определение основной информации; отличие от основного кода. Способы формального описания основной информации.
- •39. Правильное информирование (трансинформирование). Определение трансформирования. Тривиальное (тождественное и равнозначное) информирование.
- •43. Три подхода при измерении информации: структурный, статистический, семантический.
- •44. Структурные меры информации; аддитивная мера р. Хартли. Примеры подсчёта.
- •45. Понятие информации по р. Хартли.
- •46. Статистическая мера информации; количество информации по к. Шеннону. Примеры подсчёта.
- •47. Формулы для подсчёта описательных информации в информационной цепи.
- •48. Формулы для подсчёта идентифицирующих информации.
- •49. Связь чисел описательных и идентифицирующих информации.
45. Понятие информации по р. Хартли.
В соответствии с теорией Хартли информация - это особого пода логическая инструкция, набор указаний или программа для выбора, поиска, идентификации определённого сообщения (состояния) из некоторого их множества. Заметим, что слово «идентичный» означает «тождественный», «одинаковый». Соответственно идентификация - это установление тождества, одинаковости, т.е. отождествление, приравнивание, уподобление. Ниже будет показано, что «информация по Хартли» - это лишь один из двух типов информации, так называемая «идентифицирующая информация», в отличие от «описательной». Однако здесь важно заметить, что Хартли определил информацию как определённого рода преобразование, переводящее приёмник из одного состояния в другое.
«Информация по Хартли» - это программа по выбору, поиску, идентификации объекта «методом последовательного деления на два». Такой метод идентификации называют также дихотомической или бинарной процедурой поиска.
46. Статистическая мера информации; количество информации по к. Шеннону. Примеры подсчёта.
Модель стат источник- приёмник сообщ-й: I= log N – мера Хартли не учитывает частоту появл-я сообщ-й, но в длинной послед-ти некот-е сообщ-я м. повтор., быть равновер. Рассм ситуацию, когда источник сообщ-й м.описать статистич (назвать случайным),и описание представлено распред-ем вер-тей сообщ-й от источника. Т.е. кроме алф-та сост-й N, учит-ся частоты появ сообщ-й, СУММ(i=1,N)Pi=1. Можно исп-ть бинар проц поиска,но перед этим ранжировать сообщ-я по убыв частот. Ранжированные сообщ-я разбить на 2 подмн-ва с по возможности равными суммар вер-ми, затем так же с кажд подмн-вом до отдельных сообщ-й. Т.о., ср длина проги для поиска сообщ-я будет короче, чем при исп-нии меры Хартли. Lcp=СУММ(i=1,N)Li Pi. На практике обычно не удаётся разбить мн-во частот на 2 подмн-ва с равными сумм вер-ми, но разбивают на примерно равные. Проги для поиска будут длиннее, чем в идеал случае, ср длина проги больше,выбор будет неоптим.
Стат мера инфы,закон Шенона: для такой ситуации Ш предложил распознавать не отдел сообщ-я,а блоки. Станов-ся возможным правильное ранжирование слов в памяти приёмн, ситуация близка к идеал. Определим кол-во инфы, необх в среднем для идентиф-ции отдел сообщ-я. Пусть текст разбит на слова по n-симв-в. В кажд из слов 1ый симв-л входит n1-раз, m-симв-л – nm-раз. СУММ(i=1,m)ni=n. Частоты вхождения Pi≈ni/n. СУММ Pi=1. Длинные слова не повтор-ся, если их N-штук, то их вер-ти одинак: P=1/N. Кол-во инфы в слове длиной N-симв-в: IN=log N. IN= log 1/Р, Р-вер-ть отдельного слова. Найдём вер-ть формир-я слова из n-независ неравновер симв-в. Формир-е длинн слова -событие типа произвед-я событий. Если события стат независ, то P(АВ)=Р(А)Р(В). Если симв-ы в слове стат независ, Р=П(i=1,m)Pi^ni. Подставим в ф-лу Хартли: In=log 1/П(i=1,m)Pi^ni; In=-log П Pi^ni;
Pi->ni/n если бескон длин слово, ni=n Pi; In=-log П Pi^(n Pi) –кол-во инфы в бескон длин слове; In=-nСУММ(i=1,m) Pi logPi –кол-во инфы для идентиф слова при стат незав симв-в. Вирт кол-во инфы для идентиф отдельн симв-а:
I=In/n=-СУММ(i=1,m) Pi logPi=H –ф-ла Шенона.
Н -информационная энтропия! Характеризуетет степень неопред-ти сост-я ист-ка, информац способ-ть ист-ка, степ хаоса. Чем >Н ист-ка, тем > кол-ва инфы он производит. После идентиф-ии каждого сообщ-я неопред-ть сост-я источника исчезает, пр-к получает инфу. Потому количественно Н и I измеряются одинак,но это разн понятия. Энтропия-нечто определённое, характеризующееся вер-ми сост-й источника, а кол-во инфы- ср длина проги бинарной проц поиска сообщ-й.