- •26) Контур управления - это контур с обратной связью, состоящий из управляющей, управляемой систем и цепей управления (рис. 1.1).
- •27) Источник (воздействия) - это система, воздействующая на другую систему контура управления.
- •31) Нетривиальный код - это код, являющийся нетривиальным преобразованием.
- •29) Ассоциация сообщений - это неупорядоченная пара сообщений, взятых из продольного или поперечного множества сообщений в процессе управления.
- •34) Информационная ассоциация - это ассоциация, состоящая из сообщений поперечного множества.
- •35) Информационная цепь - это цепь, образованная из сообщений поперечного множества сообщений.
- •36) Нетривиальная информация - это информация, соответствующая нетривиальному преобразованию.
- •37) Основная информация - это операционная информация, одинаковая для всех последовательных ассоциаций информационной цепи.
- •38) Информирование — это преобразование информации, содержащихся в цепи оригиналов, в информации цепи образов.
- •41) Дезинформирование - это такое информирование, в котором все кодовые цепи являются разделёнными, но некоторые из них неполны (не заполнены) (рис. 1.13).
- •44) К структурным мерам информации относятся: геометрическая, комбинаторная и аддитивная.
44) К структурным мерам информации относятся: геометрическая, комбинаторная и аддитивная.
Геометрическая мера информации употребляется в измерении «длины линии», «площади» или «объёма» данного информационного массива (комплекса) в единицах дискретных элементов (сообщений) этого массива. Этой мерой обычно измеряют информационную емкость массива, комплекса и т.п.
Комбинаторная мера информации употребляется для оценки возможностей систем, в которых передача и хранение информации осуществляется при помощи различных комбинаций из набора сообщений. Заметим, что сопоставление сообщениям из большого их множества (алфавита) комбинаций из других сообщений меньшего, множества (алфавита) является одним из способов кодирования, а сами комбинации (группы сообщений, символов) обычно называются кодовыми комбинациями или кодовыми словами.
Аддитивная мера информации или «мера Хартли» находит широкое применение. Для рассмотрения этой меры введём понятия глубины и длины кодового слова или числа.
Глубина т кодового слова или числа - это количество различных сообщений (элементов, состояний системы, знаков, символов), содержащихся в принятом алфавите. Глубина числа соответствует основанию позиционной системы счисления.
Длина п кодового слова или числа - это количество повторений символов алфавита для образования данного кодового слова или числа. Длина числа соответствует принятой разрядности системы счисления. Таким образом, мера Хартли удобна благодаря свойству аддитивности, которое обеспечивает возможность сложения и пропорциональности количества информации к длине кодового слова.
Для определения количества информации этой мерой берётся не количество разных кодовых слов или состояний системы N, а его двоичный логарифм, т.е. J=log2N. Если N=mn, то выражение можно записать в виде J=log2mn=n*log2m, где log2m=K – постоянная величина. Таким образом, кол-во информации в битах пропорциональное длине кодового слова, так как J=K*n.
45) В соответствии с теорией Хартли информация - это особого пода логическая инструкция, набор указаний или программа для выбора, поиска, идентификации определённого сообщения (состояния) из некоторого их множества. Заметим, что слово «идентичный» означает «тождественный», «одинаковый». Соответственно идентификация - это установление тождества, одинаковости, т.е. отождествление, приравнивание, уподобление. Ниже будет показано, что «информация по Хартли» - это лишь один из двух типов информации, так называемая «идентифицирующая информация», в отличие от «описательной». Однако здесь важно заметить, что Хартли определил информацию как определённого рода преобразование, переводящее приёмник из одного состояния в другое.
«Информация по Хартли» - это программа по выбору, поиску, идентификации объекта «методом последовательного деления на два». Такой метод идентификации называют также дихотомической или бинарной процедурой поиска.
47) Описательная информация - это такая информация, которая относится к наименьшему возможному числу информации, необходимых для описания некоторого определённого сообщение в информационной цепи.
Исходная (реперная) информация - это описательная информация, необходимая для определения первого сообщения в информационной цепи.
Исходное сообщение - это сообщение, которое следует преобразовать с помощью исходной информации для получения первого сообщения в информационной цепи.
Число информации D , описывающих одно сообщение в информационной цепи, состоящей из n различных сообщений, равно числу этих сообщений.
D1=D2=…=Dn=D=n
Для описания одного сообщения информационной цепи, содержащей основную информацию и состоящей из произвольного числа n сообщений достаточно двух описательных информации, т.е.
D1=D2=…=Dn=D=2
Если в информационной цепи, состоящей из n сообщений, имеется m классов, состоящих соответственно из na, nb, …, nm одинаковых сообщений, то среднее число описательных информации можно определить следующим выражением
48) Идентифицирующая информация или преобразование для установления тождества - это такая информация, которая относится к наименьшему возможному числу информации, необходимых для идентификации отдельного сообщения информационной цепи.
1) Число описательных информаций, необходимых для идентификации сообщения, однозначно определено только в информационной цепи из двух сообщений; при этом Нг= 1.
2) Число информаций, идентифицирующих одно сообщение в информационной цепи, содержащей я различных сообщений, может быть определено как двоичный логарифм этого числа сообщений. Ha=log2n
3 ) Если в информационной цепи из л сообщений имеется т классов, каждый из которых состоит соответственно из л,, ль, ..., пт одинаковых сообщений, то среднее число идентифицирующих информации можно выразить соотношением:
2) Список операций: Оп = {+, *, /, -}. Для объектов той или иной природы операций всегда формируются четко, однако в последствии выяснилось, что «настоящая алгебраическая операция» должна иметь перечень свойств. Если такие не наблюдаются, то эти действия нельзя назвать операцией.
Свойства:
Ассоциативность (сочетательность)
Коммутативность
Дистрибутивность
Выделенные элементы
Примеры:
Асс – (ab)c=ab*c
Дист – a(b+c)=ab+ac
3) A=<M,Y>. Ω={Y}
Св-ва Назв. Алг |
ассоциативность |
коммутативность |
L |
-a |
1) Полугруппа |
+ |
- |
- |
- |
2) Коммутативная полугруппа |
+ |
+ |
- |
- |
3) Моноид. |
+ |
- |
+ |
- |
4) Коммутативный моноид. |
+ |
+ |
+ |
- |
5) Группа |
+ |
- |
+ |
+ |
6) Коммутативная группа |
+ |
+ |
+ |
+ |
4) A=<M,{f,x}>
Св-ва Назв. |
ассоциативность |
коммутативность |
0 |
-a |
дистрибутивность |
ассоциативность |
коммутативность |
1 |
А-1 |
1) Кольцо |
+ |
+ |
+ |
+ |
+ |
- |
- |
- |
- |
2) Ассоциативное кольцо |
+ |
+ |
+ |
+ |
+ |
+ |
- |
- |
- |
3) Коммутативное кольцо |
+ |
+ |
+ |
+ |
+ |
- |
+ |
- |
- |
4) Поле |
+ |
+ |
+ |
+ |
+ |
+ |
- |
+ |
+ |
5) Коммутативное поле |
+ |
+ |
+ |
+ |
+ |
+ |
+ |
+ |
+ |
5) Если удается каждой паре элементов присвоить вещественное неотрицательное число, то это метрическое пространство, а собственно, это число называется метрикой или расстоянием.
1) (аксиома о существовании метрики)
2) (аксиома идентичности)
3) (аксиома симметричности)
4) (аксиома треугольника)
7) Если на данном множестве элементов удастся выявить операцию, которая позволяет из 2-х элементов формируется 3-й, а также образуются новые элементы, то мы получим пространство – линейное пространство.
1)
2) (аксиома ассоциативности)
3) (аксиома о коммутативности)
4) (аксиома о существовании 1 операции)
5) (аксиома о существовании противоположности)
6) (аксиома о деформируемости)
7) (аксиома о деформируемости суммы 2-х элементов)
8) (аксиома о деформируемости любого элемента суммой 2-х чисел)
8) Если на множестве элементов есть метрика и элементы этого множества связываются отношением аддитивности и однородности, то это линейное пространство.
Норма позволяет определить расстояние между элементами, норма простой разницы.
1) (аксиома о существовании норм)
2) , если a=0 (аксиома о нулевом элементе)
3) (аксиома о норме деформ. Элемента)
4) (аксиома о норме суммы 2-х элементов, которая никак не больше, чем сумма норм)