Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Цель и суть любого кодирования.docx
Скачиваний:
2
Добавлен:
02.08.2019
Размер:
388.23 Кб
Скачать

44) К структурным мерам информации относятся: геометрическая, комбинаторная и аддитивная.

Геометрическая мера информации употребляется в измерении «длины ли­нии», «площади» или «объёма» данного информационного массива (комплекса) в единицах дискретных элементов (сообщений) этого массива. Этой мерой обычно измеряют информационную емкость массива, комплекса и т.п.

Комбинаторная мера информации употребляется для оценки возможностей систем, в которых передача и хранение информации осуществляется при помощи различных комбинаций из набора сообщений. Заметим, что сопоставление сооб­щениям из большого их множества (алфавита) комбинаций из других сообщений меньшего, множества (алфавита) является одним из способов кодирования, а са­ми комбинации (группы сообщений, символов) обычно называются кодовыми комбинациями или кодовыми словами.

Аддитивная мера информации или «мера Хартли» находит широкое приме­нение. Для рассмотрения этой меры введём понятия глубины и длины кодового слова или числа.

Глубина т кодового слова или числа - это количество различных сообщений (элементов, состояний системы, знаков, символов), содержащихся в принятом алфавите. Глубина числа соответствует основанию позиционной системы счис­ления.

Длина п кодового слова или числа - это количество повторений символов ал­фавита для образования данного кодового слова или числа. Длина числа соответ­ствует принятой разрядности системы счисления. Таким образом, мера Хартли удобна благодаря свойству аддитивности, ко­торое обеспечивает возможность сложения и пропорциональности количества информации к длине кодового слова.

Для определения количества информации этой мерой берётся не количество разных кодовых слов или состояний системы N, а его двоичный логарифм, т.е. J=log2N. Если N=mn, то выражение можно записать в виде J=log2mn=n*log2m, где log2m=K – постоянная величина. Таким образом, кол-во информации в битах пропорциональное длине кодового слова, так как J=K*n.

45) В соответствии с теорией Хартли информация - это особого пода логическая инструкция, набор указаний или программа для выбора, поиска, идентификации определённого сообщения (состояния) из некоторого их множества. Заметим, что слово «идентичный» означает «тождественный», «одинаковый». Соответст­венно идентификация - это установление тождества, одинаковости, т.е. отожде­ствление, приравнивание, уподобление. Ниже будет показано, что «информация по Хартли» - это лишь один из двух типов информации, так называемая «иден­тифицирующая информация», в отличие от «описательной». Однако здесь важно заметить, что Хартли определил информацию как определённого рода преобра­зование, переводящее приёмник из одного состояния в другое.

«Информация по Хартли» - это про­грамма по выбору, поиску, идентификации объекта «методом последова­тельного деления на два». Такой метод идентификации называют также дихо­томической или бинарной процедурой поиска.

47) Описательная информация - это такая информация, которая относится к наименьшему возможному числу информации, необходимых для описания неко­торого определённого сообщение в информационной цепи.

Исходная (реперная) информация - это описательная информация, необхо­димая для определения первого сообщения в информационной цепи.

Исходное сообщение - это сообщение, которое следует преобразовать с по­мощью исходной информации для получения первого сообщения в информаци­онной цепи.

  1. Число информации D , описывающих одно сообщение в инфор­мационной цепи, состоящей из n различных сообщений, равно числу этих сооб­щений.

D1=D2=…=Dn=D=n

  1. Для описания одного сообщения информационной цепи, содер­жащей основную информацию и состоящей из произвольного числа n сообщений достаточно двух описательных информации, т.е.

D1=D2=…=Dn=D=2

  1. Если в информационной цепи, состоящей из n сообщений, име­ется m классов, состоящих соответственно из na, nb, …, nm одинаковых сообще­ний, то среднее число описательных информации можно определить следующим выражением

Среднее число описательных информации одного сообщения информацион­ной цепи можно определить как среднее геометрическое средних чисел инфор­мации, описывающих сообщения для всех классов D=n/nq

48) Идентифицирующая информация или преобразование для установления тождества - это такая информация, которая относится к наименьшему воз­можному числу информации, необходимых для идентификации отдельного сообщения информационной цепи.

1) Число описательных информаций, необходимых для идентифи­кации сообщения, однозначно определено только в информационной цепи из двух сообщений; при этом Нг= 1.

2) Число информаций, идентифицирующих одно сообщение в ин­формационной цепи, содержащей я различных сообщений, может быть опреде­лено как двоичный логарифм этого числа сообщений. Ha=log2n

3 ) Если в информационной цепи из л сообщений имеется т клас­сов, каждый из которых состоит соответственно из л,, ль, ..., пт одинаковых со­общений, то среднее число идентифицирующих информации можно выразить со­отношением:

2) Список операций: Оп = {+, *, /, -}. Для объектов той или иной природы операций всегда формируются четко, однако в последствии выяснилось, что «настоящая алгебраическая операция» должна иметь перечень свойств. Если такие не наблюдаются, то эти действия нельзя назвать операцией.

Свойства:

  • Ассоциативность (сочетательность)

  • Коммутативность

  • Дистрибутивность

  • Выделенные элементы

Примеры:

Асс – (ab)c=ab*c

Дист – a(b+c)=ab+ac

3) A=<M,Y>. Ω={Y}

Св-ва

Назв. Алг

ассоциативность

коммутативность

L

-a

1) Полугруппа

+

-

-

-

2) Коммутативная полугруппа

+

+

-

-

3) Моноид.

+

-

+

-

4) Коммутативный моноид.

+

+

+

-

5) Группа

+

-

+

+

6) Коммутативная группа

+

+

+

+

4) A=<M,{f,x}>

Св-ва

Назв.

ассоциативность

коммутативность

0

-a

дистрибутивность

ассоциативность

коммутативность

1

А-1

1) Кольцо

+

+

+

+

+

-

-

-

-

2) Ассоциативное кольцо

+

+

+

+

+

+

-

-

-

3) Коммутативное кольцо

+

+

+

+

+

-

+

-

-

4) Поле

+

+

+

+

+

+

-

+

+

5) Коммутативное поле

+

+

+

+

+

+

+

+

+

5) Если удается каждой паре элементов присвоить вещественное неотрицательное число, то это метрическое пространство, а собственно, это число называется метрикой или расстоянием.

1) (аксиома о существовании метрики)

2) (аксиома идентичности)

3) (аксиома симметричности)

4) (аксиома треугольника)

7) Если на данном множестве элементов удастся выявить операцию, которая позволяет из 2-х элементов формируется 3-й, а также образуются новые элементы, то мы получим пространство – линейное пространство.

1)

2) (аксиома ассоциативности)

3) (аксиома о коммутативности)

4) (аксиома о существовании 1 операции)

5) (аксиома о существовании противоположности)

6) (аксиома о деформируемости)

7) (аксиома о деформируемости суммы 2-х элементов)

8) (аксиома о деформируемости любого элемента суммой 2-х чисел)

8) Если на множестве элементов есть метрика и элементы этого множества связываются отношением аддитивности и однородности, то это линейное пространство.

Норма позволяет определить расстояние между элементами, норма простой разницы.

1) (аксиома о существовании норм)

2) , если a=0 (аксиома о нулевом элементе)

3) (аксиома о норме деформ. Элемента)

4) (аксиома о норме суммы 2-х элементов, которая никак не больше, чем сумма норм)