- •Лекция №1 Введение в системный анализ
- •Основные понятия теории систем
- •Лекция №2 Модели систем
- •Структурный анализ систем
- •Элементы теории графов
- •Алгебраическое представление графа
- •Лекция №3 Ранжирование элементов систем
- •Лекция №4 Элементы теории сетей
- •Сетевое планирование
- •Лекция №5 Функциональные модели
- •Организации
- •Лекция №6 Тезаурус
- •Управление
- •Программное управление
- •Адаптивное управление
- •Лекция №7 Рефлексивное управление
- •Развитие
- •1. Линейные связи
- •2. Ограничивающие связи
- •3. Запаздывающие связи
- •4. Селектирующие связи
- •Лекция №8 Информационное описание
- •Лекция №9 Исследование операций
- •Элементы теории игр
- •Игры двух лиц с нулевой суммой
- •Лекция №10 Смешанные стратегии
- •Методы определения оптимальных стратегий
- •Итерационный метод решения игр
- •Лекция №11 Игры двух лиц с ненулевой суммой
- •Игры nлиц
- •Игровое моделирование
- •Лекция №12 Теория полезности История вопроса
- •Предпочтение и полезность
- •Лекция №13 Теория ожидаемой полезности
- •Аксиомы для линейной функции полезности
- •Субъективная вероятность
- •Лекция №14 Теория принятия решений
- •Аксиомы теории принятия решений
- •Прогнозирование
- •Лекция №15 Автоматизированные системы управления процессами
- •Лекция №16 Системы искусственного интеллекта
- •Экспертные системы
- •Приложение 1 Элементы булевой алгебры
- •Приложение 2 Общие сведения об операторах
- •Содержание
Лекция №8 Информационное описание
Информационное описание должно давать представление об организации системы. Термин "информация" требует уточнения. Он имеет несколько значений. Наиболее часто под информацией понимают совокупность сведений или знаний о чем-либо.
В информатике и теории связи информация-это сведения, данные, сообщения, сигналы, подлежащие передаче, приему, обработке, хранению и отражающие реальную действительность или интеллектуальную деятельность.
Это определение лежит в основе статистической теории информации, сформулированной и развитой в работах Шеннона, Хартли, Колмогорова, Эшби, Бриллюэна и др. Обычно информацию, понимаемую в данном смысле, называютшенноновской информацией.
По сути, шенноновская информация - это отображение в некоторое пространство символов. Поэтому шенноновскую информацию часто называют отображающейи обозначают. Ее величина измеряется в двоичных единицах. Если число возможных равновероятных исходов до получения информации составлялоN0, а после получения информации оно сократилось доN1, то
.
Статистическая теория информации создала базу для развития кибернетики как науки, однако, оказалась малоэффективной для анализа процессов управления системами. Причина - статистическая информация характеризует лишь количественную сторону информационного сообщения, не отражая связи сообщения с полезностью, смыслом, достижением цели, обученностью приемника сообщения и т.п. Качественные (прагматические и семантические) характеристики информации в задачах управления выдвигаются на первое место. Используемая же в настоящее время количественная мера является лишь синтаксической характеристикой информации.
По мере развития научных методов исследования сложных систем, особенно в физике и кибернетике, появилось и заняло важное место определение информации как меры устранения энтропии (неопределенности), как меры организации системы.
Действительно, например, поведение и функционирование S0-систем в значительной мере определяется информацией, доставляемой рецепторными подсистемами. Информация определяет предсказуемость свойств и поведения объекта во времени; чем выше уровень организованности (больше информации), тем меньше подвержен объект действию среды.
При таком подходе понятие информация аналогично понятию энергия, которая определяется как общая мера различных процессов и видов взаимодействия. Высказывается мнение, что различные формы организации взаимно преобразуются в строгих количественных соотношениях, выражаемых при помощи информации.
Доказать это можно только экспериментально (как и для количественных соотношений форм движения - энергетических эквивалентов).
Количество и ценность информации - взаимодополняющие категории. Можно говорить о количестве ценной информации применительно к заданной цели подобно тому, как мы говорим о количестве ценного вида вещества или энергии.
Для определения меры порядка-беспорядка используют энтропию и негэнтропию. Энтропия - мера беспорядка, негэнтропия - мера порядка, организованности.
Что же такое организованность? Это первичная категория, точно ее определить крайне сложно. Мы ограничимся определением, близким к интуитивному восприятию этого понятия.
Организованность,упорядоченность системы-это способность предопределять свою перспективу, свое будущее(сравните:энергия-способность системы выполнить работу).
Чем беспорядочнее система, тем больше зависит ее перспектива от случайных факторов (внешних и внутренних). Повышение упорядоченности означает увеличение зависимости между факторами, определяющими поведение (состояние) системы. Применительно к случайным внешним факторам это означает наличие в системе возможностей установления соответствия между свойствами среды и функциями системы, для чего требуется наличие отображения среды в системе.
Негэнтропию(меру организованности)можно понимать как потенциальную меру предсказуемости будущего системы, количественную характеристику возможности экстраполяции состояния (поведения) системы. Негэнтропия - это и потенциальная мера предсказуемости будущего среды.
Соответственно, информация об организации системы-это количественная характеристика возможности экстраполяции ее состояния (поведения) на соответствующем уровне детализации системы. Информация об организации системы - часть ее внутренней информации.
Информация о среде-количественная характеристика возможности экстраполяции среды.Потенциальная ошибка экстраполяции определяется энтропией системы.
В шенноновской теории неоднократно предпринимались попытки ввести учет ценности информации, например, используя понятие цели. По Вудворту, например, ценность информации выражается через вероятность достижения цели. Если до получения информации эта вероятность равна, а после получения информации -, то
.
Если и, то оба определения совпадают. Величинаможет быть отрицательной, если она уменьшает вероятность достижения цели (дезинформация).
В некоторых случаях такая модификация шенноновской теории дает положительный эффект. В общем случае модификации шенноновской теории оказывается недостаточно. Вопрос о введении количественной меры ценности информации успешно решен пока только для отдельных частных случаев.