Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Глава_1_А5.docx
Скачиваний:
6
Добавлен:
14.09.2019
Размер:
438.48 Кб
Скачать

Часть 1. Способы и формы кодирования, представления и передачи информации в микропроцессорных системах автоматического управления.

Глава 1.Формы и способы представления информации в мп сау.

1.1 Количественная мера оценки информации в мп.

Теория информации изучает количественные закономерности, связанные с получением, передачей, хранением и обработкой информации и рассматривает:

  1. Оптимальное кодирование информации для ее передачи с минимальным числом символов.

  2. Оптимальное размещение информации, применительно к техническим средствам конкретного принципа действия, в том числе в МП,.

  3. Оптимальные способы ввода и вывода информации для технических средств (МП САУ).

1.1.1 Энтропия, как количественная мера оценки информации

Рассмотрим свойства энтропии как меры априорной неопределенности некоторой системы Х (МП САУ)или некоторой случайной величины. Обозначим энтропию этой системы Н(Х) и запишем ее в виде (1.1).

n

Н(Х) =  Pi*logPi (1.1)

i=1,2,3……………n – номер состояния, в котором может находиться система Х.

Х1< =Xi< =Xn

Pi – вероятность нахождения системы Х в состоянии i.

Энтропия системы Х представляет собой сумму произведений вероятности состояния системы Pi на логарифм этой вероятности, взятую с обратным знаком.

0< =Pi< =1

1.1.2 Основные свойства энтропии

  1. Если одно состояние системы Xi достоверно, а остальные состояния невозможны, то энтропия такой системы равна нулю.

  2. При заданном числе состояний системы, (n=const) когда эти состояния равновероятны, H(x)=max.

  3. При возрастании числа состояний системы n ее энтропия H(x) также возрастает.

  4. При объединении независимых систем в одну, их энтропии суммируются.

m m

X= Xj H(x)= Hj

j=1 j=1

Величина энтропии системы H(x ) зависит от величины основания логарифма вероятности Pi .

За единицу измерения энтропии принимается энтропия системы, имеющей два равновероятных состояния (табл. 1.1).

Таблица 1.1

Xi

X1

X2

Pi

P1=0,5

P2=0,5

Энтропия, являясь мерой неопределенности системы, может использоваться для уменьшения этой неопределенности при получении некоторых сведений (информации) о системе. Чем больше этих сведений и чем они содержательней, тем меньше неопределенность системы.

Количество информации (1.2)можно измерять уменьшением энтропии той системы, для уточнения состояний которой предназначены полученные сведения.

n

I(x)=H(x)-0=H(x)= - Pi*log2Pi (1.2)

i=1

Используя информацию в двоичном коде и раскрывая неопределенность системы посредством построения вопросов, на каждый из которых можно ответить толь-

ко да или нет, можно определить на известном множестве состояний X={1,2,3,4,5,6,7,8} количество информации I(x) с помощью минимального количества вопросов.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]