- •20) Дискретизировать функцию по времени - значит, исключить из рассмотрения множество значений этой функции в течение некоторых заданных интервалов времени. **
- •27) Источник (воздействия) - это система, воздействующая на другую систему контура управления.
- •29) Ассоциация сообщений - это неупорядоченная пара сообщений, взятых из продольного или поперечного множества сообщений в процессе управления.
- •34) Информационная ассоциация - это ассоциация, состоящая из сообщений поперечного множества.
- •35) Информационная цепь - это цепь, образованная из сообщений поперечного множества сообщений.
- •38) Информирование — это преобразование информации, содержащихся в цепи оригиналов, в информации цепи образов.
- •42) Рассмотрим информирование, при котором имеются сообщения, принадлежащие только информационным цепям и не принадлежащие ни к Одной из кодовых цепей. Такие сообщения называются парасообщениями.
- •44) К структурным мерам информации относятся: геометрическая, комбинаторная и аддитивная.
42) Рассмотрим информирование, при котором имеются сообщения, принадлежащие только информационным цепям и не принадлежащие ни к Одной из кодовых цепей. Такие сообщения называются парасообщениями.
При этом параоригинал х3 находится в цепи оригиналов, а параобраз vs - в цепи образов (рис. 1.14а).
Параинформация содержится в ассоциации, в которой одно из сообщений - парасообщение.
Параинформирование - это информирование, в котором участвуем параинформация (рис. 1.14а).
Рис. 1.14. Параинформирование: а - паратрансинформирование, б и в- парадезинформирования, соответственно симуляционное и диссимуляционное, г ид- конфузионное парадезинформирование; л:3 и v3- парасообщения, соответственно параоригинап и параобраз; Jxi3, J^iz, J,u, Лгз - параинформации
В зависимости от числа параинформаций в оригиналах и образах будем различать симуляционное, диссимуляционное и конфузионное парадезинформирова- аия (рис. 1.146, в, г, д); также следует различать симуляционную парадезин- формацию (рис. 1.146) и отсутствие параинформации в образах при наличии их в оригиналах, называемое диссимуляционной парадезинформацией (рис. 1.14в).
43) При структурном подходе измерение информации осуществляется простым подсчетом числа сообщений (информационных элементов), составляющих информационный массив, или количеством преобразований сообщений (связей между информационными элементами), или числом комбинаций, которые можно реализовать из этих сообщений (элементов). Этот подход применяется для оценки ёмкости информационных систем без учёта условий их применения. К таким системам относят средства формирования, передачи, обработки, преобразования и хранения сообщений.
При статическом подходе количество информации ставится в зависимость от вероятности появления сообщений. Такой подход позволяет оценить информационные возможности систем с учетом конкретных статистических свойств сообщений и помех. Подчеркнём, что статистическая теория передачи сообщений, называемая обычно (статистической) теорией информации, является в настоящее время наиболее развитым направлением в общей теории информации. Однако этот подход описывает далеко не все информационные явления даже в технических системах.
Семантический подход предназначен для учёта целесообразности, ценности, полезности, существенности и содержательности информации, для оценки эффективности логического опыта. Например, более ценной можно считать ту информацию, которая содержится в более короткой программе из возможных программ, ведущих к одной и той же цели из заданного исходного положения
44) К структурным мерам информации относятся: геометрическая, комбинаторная и аддитивная.
Геометрическая мера информации употребляется в измерении «длины линии», «площади» или «объёма» данного информационного массива (комплекса) в единицах дискретных элементов (сообщений) этого массива. Этой мерой обычно измеряют информационную емкость массива, комплекса и т.п.
Комбинаторная мера информации употребляется для оценки возможностей систем, в которых передача и хранение информации осуществляется при помощи различных комбинаций из набора сообщений. Заметим, что сопоставление сообщениям из большого их множества (алфавита) комбинаций из других сообщений меньшего, множества (алфавита) является одним из способов кодирования, а сами комбинации (группы сообщений, символов) обычно называются кодовыми комбинациями или кодовыми словами.
В комбинаторике рассматривают различные виды соединений из элементов. сочетания из т элементов по п различаются составом элементов. Перестановки из т элементов различаются их порядком; возможны перестановки с неоднократными повторениями некоторых элементов. Размещения из т элементов по и элементов различаются составом элементов и их порядком. Возможны размещения с повторениями одинаковых элементов; число таких размещений N = т".
Аддитивная мера информации или «мера Хартли» находит широкое применение. Для рассмотрения этой меры введём понятия глубины и длины кодового слова или числа.
Глубина т кодового слова или числа - это количество различных сообщений (элементов, состояний системы, знаков, символов), содержащихся в принятом алфавите. Глубина числа соответствует основанию позиционной системы счисления.
Длина п кодового слова или числа - это количество повторений символов алфавита для образования данного кодового слова или числа. Длина числа соответствует принятой разрядности системы счисления. Таким образом, мера Хартли удобна благодаря свойству аддитивности, которое обеспечивает возможность сложения и пропорциональности количества информации к длине кодового слова.
45) В соответствии с теорией Хартли информация - это особого пода логическая инструкция, набор указаний или программа для выбора, поиска, идентификации определённого сообщения (состояния) из некоторого их множества. Заметим, что слово «идентичный» означает «тождественный», «одинаковый». Соответственно идентификация - это установление тождества, одинаковости, т.е. отождествление, приравнивание, уподобление. Ниже будет показано, что «информация по Хартли» - это лишь один из двух типов информации, так называемая «идентифицирующая информация», в отличие от «описательной». Однако здесь важно заметить, что Хартли определил информацию как определённого рода преобразование, переводящее приёмник из одного состояния в другое.
«Информация по Хартли» - это программа по выбору, поиску, идентификации объекта «методом последовательного деления на два». Такой метод идентификации называют также дихотомической или бинарной процедурой поиска.
25) Различают следующие две модели помех (два типа помех):
а) аддитивные помехи формируют смесь сигнала с помехой путем алгебраического суммирования их амплитуд:
fcn(t)=f*(t)+-fn(t), где f„(t) - амплитуда помехи;
б) мультипликативные помехи формируют смесь сигнала с помехой путем перемножения их значений:
fcn(t)=k*f*(t)*fn(t) ; где K - масштабный коэффициент.
Если известен характер изменения помех, то минимальную величину шага квантования можно определить численно. При моделировании часто имитируется случайная помеха с нормальным (гауссовым) распределением, закон которого характеризуется двумя параметрами m и b, где m - математическое ожидание (величина постоянной составляющей помехи); b - среднеквадратическое отклонение - СКО (интенсивность случайной составляющей помехи).
Обычно в системах передачи данных помеха бывает именно нормально распределенной с нулевым математическим ожиданием. Помеха может быть рассеяна более или менее сильно, но площадь под кривой распределения должна быть одинаковой и соответствовать вероятности достоверного события - единице. Степень рассеивания случайной величины (помехи) определяется значением среднеквадратического отклонения b.
При наложении такой помехи на квантованный сигнал последний становится случайной величиной fcn(t) с математическим ожиданием, равным его уровню, и среднеквадратическим отклонением помехи
24) 1-й способ квантования - путем соотнесения исходного значения сигнала с ближайшим значением уровня.
В этом случае квантование происходит по методу соотнесения с ближайшим значением уровня. Этот способ квантования аналогичен округлению чисел до ближайшего целого. При таком способе вместо исходного непрерывного сигнала мы получим квантованный сигнал, представленный временной диаграммой на рис.1.5.
ft, fi+1 - значения соседних порогов квантования (пунктир);
∆ft - шаг квантования, ∆ fi =fi+1 - fi;
Таким образом, очевидно, что в Процессе квантования неизбежно возникает принципиальная или методическая ошибка квантования - шум квантования, ее величина для момента времени t определяется в виде ∆f(t)=f(t)-f*(t)
2-й способ квантования - путем соотнесения исходного значения с ближайшим "снизу" значением уровня. В этом случае i-е пороговое значение совпадает со значением (i+1)-го уровня. Данный способ аналогичен округлению числа до ближайшего целого снизу.
3-й способ квантования - путем соотнесения исходного значения с ближайшим "сверху" значением уровня. Пороги и уровни совпадают по номерам и значениям. Шум квантования всегда отрицательный (∆f(t)< 0) и не превышает величину шага квантования. Этот способ аналогичен округлению числа до ближайшего целого сверху.
Равномерным квантованием называется такое квантование, при котором шаг квантования есть постоянная величина. В большинстве случаев применяется равномерное квантование.
Из трех способов квантования первый дает минимальную среднюю ошибку квантования при одном и том же шаге квантования, поэтому на практике часто используется именно этот способ.
23) Квантованием, по уровню называют дискретизацию множества значений непрерывного сигнала по уровню, то есть по амплитуде параметра. Идея квантования по уровню заключается в следующем. Весь диапазон возможных изменений сигнала (функции) разбивается на N различимых величин - уровней квантования. В результате квантования сигнала каждое из его значений данного интервала округляется до некоторого уровня. Порогами квантования называются величины, при сравнении с которыми исходного непрерывного сигнала в процессе квантования определяется его принадлежность к уровню квантования. Величина, представляющая собой разность между двумя соседними уровнями, называется шагом квантования. Замена исходных значений функции соответствующими дискретными значениями - уровнями квантования - вносит ошибку квантования, называемую шумом квантования.
Для обработки непрерывного сигнала на цифровой машине необходимо предварительно преобразовать его в последовательность чисел с помощью аналого - цифрового преобразователя (АЦП). Другое название АЦП - преобразователь "аналог-код" В таком преобразователе осуществляются следующие действия:
квантование сигнала по уровню (по амплитуде);
-дискретизация сигнала по времени;
-преобразование дискретного сигнала в двоичное число;