Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Методичка по теории принятия решений Болдасов.doc
Скачиваний:
81
Добавлен:
09.04.2015
Размер:
1.68 Mб
Скачать

Лекция №8 Информационное описание

Информационное описание должно давать представление об орга­низации системы. Термин "информация" требует уточнения. Он имеет несколько значений. Наиболее часто под информацией понимают сово­купность сведений или знаний о чем-либо.

В информатике и теории связи информация-это сведения, дан­ные, сообщения, сигналы, подлежащие передаче, приему, обработке, хра­нению и отражающие реальную действительность или интеллектуаль­ную деятельность.

Это определение лежит в основе статистической теории инфор­мации, сформулированной и развитой в работах Шеннона, Хартли, Кол­могорова, Эшби, Бриллюэна и др. Обычно информацию, понимаемую в данном смысле, называютшенноновской информацией.

По сути, шенноновская информация - это отображение в некоторое пространство символов. Поэтому шенноновскую информацию часто на­зывают отображающейи обозначают. Ее величина измеряется в дво­ичных единицах. Если число возможных равновероятных исходов до по­лучения информации составлялоN0, а после получения информации оно сократилось доN1, то

.

Статистическая теория информации создала базу для развития ки­бернетики как науки, однако, оказалась малоэффективной для анализа процессов управления системами. Причина - статистическая информа­ция характеризует лишь количественную сторону информационного со­общения, не отражая связи сообщения с полезностью, смыслом, достиже­нием цели, обученностью приемника сообщения и т.п. Качественные (прагматические и семантические) характеристики информации в задачах управления выдвигаются на первое место. Используемая же в настоящее время количественная мера является лишь синтаксической характеристи­кой информации.

По мере развития научных методов исследования сложных систем, особенно в физике и кибернетике, появилось и заняло важное место опре­деление информации как меры устранения энтропии (неопределеннос­ти), как меры организации системы.

Действительно, например, поведение и функционирование S0-сис­тем в значительной мере определяется информацией, доставляемой ре­цепторными подсистемами. Информация определяет предсказуемость свойств и поведения объекта во времени; чем выше уровень организован­ности (больше информации), тем меньше подвержен объект действию среды.

При таком подходе понятие информация аналогично понятию энергия, которая определяется как общая мера различных процессов и видов взаимодействия. Высказывается мнение, что различ­ные формы организации взаимно преобразуются в строгих количественных соот­ношениях, выражаемых при помощи информации.

Доказать это можно только экспериментально (как и для количест­венных соотношений форм движения - энергетических эквивалентов).

Количество и ценность информации - взаимодополняющие катего­рии. Можно говорить о количестве ценной информации применительно к заданной цели подобно тому, как мы говорим о количестве ценного ви­да вещества или энергии.

Для определения меры порядка-беспорядка используют энтропию и негэнтропию. Энтропия - мера беспорядка, негэнтропия - мера по­рядка, организованности.

Что же такое организованность? Это первичная категория, точно ее определить крайне сложно. Мы ограничимся определением, близким к интуитивному восприятию этого понятия.

Организованность,упорядоченность системы-это способ­ность предопределять свою перспективу, свое будущее(сравните:энер­гия-способность системы выполнить работу).

Чем беспорядочнее система, тем больше зависит ее перспектива от случайных факторов (внешних и внутренних). Повышение упорядочен­ности означает увеличение зависимости между факторами, определяю­щими поведение (состоя­ние) системы. Применительно к случайным внешним факторам это означает наличие в системе возможностей уста­новления соответствия между свойствами среды и функциями системы, для чего требуется наличие отображения среды в системе.

Негэнтропию(меру организованности)можно понимать как по­тенциальную меру предсказуемости будущего системы, количественную характеристику возможности экстраполяции состояния (поведения) системы. Негэнтропия - это и потенциальная мера предсказуемости бу­дущего среды.

Соответственно, информация об организации системы-это ко­личественная характеристика возможности экстраполяции ее состоя­ния (поведения) на соответствующем уровне детализации системы. Информация об организа­ции системы - часть ее внутренней информации.

Информация о среде-количественная характеристика возмож­ности экстраполяции среды.Потенциальная ошибка экстраполяции оп­ределяется энтропией системы.

В шенноновской теории неоднократно предпринимались попытки ввести учет ценности информации, например, используя понятие цели. По Вудворту, например, ценность информации выражается через ве­роятность достижения цели. Если до получения информации эта ве­роят­ность равна, а после получения ин­формации -, то

.

Если и, то оба определения совпадают. Величи­наможет быть отрицательной, если она уменьшает вероятность дос­тижения цели (дезинформация).

В некоторых случаях такая модификация шенноновской теории дает положительный эффект. В общем случае модификации шеннонов­ской теории оказывается недостаточно. Вопрос о введении количествен­ной меры ценности информации успешно решен пока только для отдель­ных частных случаев.