- •Введение
- •1. Возникновение и развитие системных представлений
- •1.1. Предварительные замечания
- •1.2. Роль системных представлений в практической деятельности
- •Системность и алгоритмичность
- •1.3. Внутренняя системность познавательных процессов
- •Анализ и синтез в познании
- •Эволюция взглядов на системность мышления
- •1.4. Системность как всеобщее свойство материи
- •Вся природа системна
- •Системы как абстракция
- •Свойства любых систем
- •1.5. Краткий очерк истории развития системных представлений
- •Системность как объект исследования
- •Первые шаги кибернетики
- •Тектология богданова
- •Кибернетика винера
- •Попытки построения общей теории систем
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •2. Модели и моделирование
- •2.1. Широкое толкование понятия модели
- •Развитие понятия модели
- •Модель как философская категория
- •2.2. Моделирование - неотъемлемый этап всякой целенаправленной деятельности
- •Цель как модель
- •Познавательные и прагматические модели
- •Статические и динамические модели
- •2.3. Способы воплощения моделей
- •Абстрактные модели и роль языков
- •Материальные модели и виды подобия
- •Знаковые модели и сигналы
- •2.4. Условия реализации свойств моделей
- •2.5. Соответствие между моделью и действительностью: различия
- •Конечность моделей
- •Упрощенность моделей
- •Приближенность моделей
- •Адекватность моделей
- •2.6. Соответствие между моделью и действительностью: сходство
- •Истинность моделей
- •Сочетание истинного и ложного в модели
- •2.7. О динамике моделей
- •Сложности алгоритмизации моделирования
- •Естественная эволюция моделей
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •3. Системы модели систем
- •3.1. Множественность моделей систем
- •3.2. Первое определение системы
- •Проблемы и системы
- •Сложности выявления целей
- •3.3. Модель "черного ящика"
- •Компоненты "черного ящика"
- •Сложности построения модели "черного ящика"
- •Множественность входов и выходов
- •3.4. Модель состава системы
- •Компоненты модели состава
- •Сложности построения модели состава
- •3.5. Модель структуры системы
- •Отношения и структуры
- •Свойство и отношение
- •3.6. Второе определение системы. Структурная схема системы
- •Структурная схема как соединение моделей
- •3.7. Динамические модели систем
- •Отображение динамики системы
- •Функционирование и развитие
- •Типы динамических моделей
- •Общая математическая модель динамики
- •Заключение
- •Упражнения
- •Вопросы для самопроверки
- •4. Искусственные и естественные системы
- •4.1. Искусственные системы и естественные объекты
- •4.2. Обобщение понятия системы. Искусственные и естественные системы
- •Структурированность естественных объектов
- •Субъективные и объективные цели
- •4.3. Различные классификации систем
- •Классификация систем по их происхождению
- •Типы переменных системы
- •Типы операторов системы
- •Типы способов управления
- •4.4. О больших и сложных системах
- •Ресурсы управления и качество системы
- •Различение больших и сложных систем
- •Другие подходы к понятию сложности
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •5. Информационные аспекты изучения систем
- •5.1. Информация как свойство материи
- •5.2. Сигналы в системах
- •Понятие сигнала
- •Типы сигналов
- •5.3. Случайный процесс - математическая модель сигналов
- •Непредсказуемость - основное свойство сигналов
- •Классы случайных процессов
- •5.4. Математические модели реализации случайных процессов
- •Моделирование конкретных реализации
- •Некоторые модели ансамбля реализации
- •5.5. О некоторых свойствах непрерывных сигналов
- •Частотно-временное представление сигналов
- •Дискретное представление сигналов
- •5.6. Энтропия
- •Понятие неопределенности
- •Энтропия и ее свойства
- •Дифференциальная энтропия
- •Фундаментальное свойство энтропии случайного процесса
- •5.7. Количество информации
- •Количество информации как мера снятой неопределенности
- •Количество информации как мера соответствия случайных объектов
- •Свойства количества информации
- •Единицы измерения энтропии и количества информации
- •Количество информации в индивидуальных событиях
- •5.8. Об основных результатах теории информации
- •Избыточность
- •Скорость передачи и пропускная способность
- •Кодирование в отсутствие шумов
- •Кодирование при наличии шумов
- •Пропускная способность гауссова канала связи
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •6. Роль измерений в создании моделей систем
- •6.1. Эксперимент и модель
- •Классическое представление об эксперименте
- •Современное понятие эксперимента
- •6.2. Измерительные шкалы
- •Шкалы наименований
- •Порядковые шкалы
- •Модифицированные порядковые шкалы
- •Шкалы интервалов
- •Шкалы отношений
- •Шкалы разностей
- •Абсолютная шкала
- •Согласование шкалы с природой наблюдений
- •О других шкалах
- •6.3. Расплывчатое описание ситуаций
- •Понятие расплывчатости
- •Основные понятия теории расплывчатых множеств
- •6.4. Вероятностное описание ситуации. Статистические измерения
- •Понятие случайной неопределенности
- •О природе случайности
- •Статистические измерения
- •6.5. Регистрация экспериментальных данных и ее связь с последующей их обработкой
- •Классификационные модели
- •Числовые модели
- •Особенности протоколов наблюдений
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •7. Выбор (принятие решений)
- •7.1. Многообразие задач выбора
- •Выбор как реализация цели
- •Множественность задач выбора
- •7.2. Критериальный язык описания выбора
- •Выбор как максимизация критерия
- •Сведение многокритериальной задачи к однокритериальной
- •Условная максимизация
- •Варианты оптимизации при разноважных критериях
- •Выбор между упорядочениями
- •Поиск альтернативы с заданными свойствами
- •Нахождение паретовского множества
- •7.3. Описание выбора на языке бинарных отношений
- •Способы задания бинарных отношений
- •Отношения эквивалентности, порядка и доминирования
- •Об оцифровке порядковых шкал
- •7.4. Язык функций выбора
- •Функции выбора как математический объект
- •Ограничения на функции выбора
- •7.5. Групповой выбор
- •Описание группового выбора
- •Различные правила голосования
- •Парадоксы голосования
- •7.6. Выбор в условиях неопределенности
- •Задание неопределенности с помощью матрицы
- •Критерии сравнивания альтернатив при неопределенности исходов
- •Общее представление о теории игр
- •7.7. О выборе в условиях статистической неопределенности
- •Статистические решения как выбор
- •Общая схема принятия статистических решений
- •Понятие об основных направлениях математической статистики
- •Правила "статистической техники безопасности"
- •7.8. Выбор при расплывчатой неопределенности
- •Многокритериальный выбор в расплывчатой ситуации
- •Некритериальные задачи расплывчатого выбора
- •7.9. Достоинства и недостатки идеи оптимальности
- •Достоинства оптимизационного подхода
- •Ограниченность оптимизационного подхода
- •7.10. Экспертные методы выбора
- •Факторы, влияющие на работу эксперта
- •Методы обработки мнений экспертов
- •Метод "делфи"
- •7.11. Человеко-машинные системы и выбор
- •Пакеты прикладных программ для выбора
- •Базы знаний, экспертные системы
- •Системы поддержки решений
- •7.12. Выбор и отбор
- •Повторный выбор
- •Основные идеи теории элитных групп
- •Процедура "претендент- рекомендатель"
- •Процедуры "прополка" и "снятие урожая"
- •Процедура "делегирование"
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •8. Декомпозиция и агрегирование как процедуры системного анализа
- •8.1. Анализ и синтез в системных исследованиях
- •Сочетание анализа и синтеза в системном исследовании
- •Особенности синтетических методов
- •8.2. Модели систем как основания декомпозиции
- •Содержательная модель как основание декомпозиции
- •Связь между формальной и содержательной моделями
- •Проблема полноты моделей
- •8.3. Алгоритмизация процесса декомпозиции
- •Компромиссы между полнотой и простотой
- •Типы сложности
- •Алгоритм декомпозиции
- •8.4. Агрегирование, эмерджентность, внутренняя целостность систем
- •Эмерджентность как результат агрегирования
- •8.5. Виды агрегирования
- •Конфигуратор
- •Агрегаты-операторы
- •Классификация как агрегирование
- •Функция нескольких переменных как агрегат
- •Статистики как агрегаты
- •Агрегаты-структуры
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •9. О неформализуемых этапах системного анализа
- •9.1. Что такое системный анализ
- •Разнородные знания и системный анализ
- •Системный анализ как прикладная диалектика
- •9.2. Формулирование проблемы
- •Превращение проблемы в проблематику
- •Методы построения проблематики
- •9.3. Выявление целей
- •Опасность подмены целей средствами
- •Влияние ценностей на цели
- •Множественность целей
- •Опасность смешения целей
- •Изменение целей со временем
- •9.4. Формирование критериев
- •Критерии как модель целей
- •Причины многокритериальности реальных задач
- •Критерии и ограничения
- •9.5. Генерирование альтернатив
- •Способы увеличения числа альтернатив
- •Создание благоприятных условий
- •Способы сокращения числа альтернатив
- •Мозговой штурм
- •Синектика
- •Разработка сценариев
- •Морфологический анализ
- •Деловые игры
- •9.6. Алгоритмы проведения системного анализа
- •Трудности алгоритмизации системного анализа
- •Компоненты системных исследований
- •9.7. Претворение в жизнь результатов системных исследований
- •Внедрение результатов системного анализа в практику
- •Необходимость методологии внедрения
- •Рост и развитие
- •Условие добровольности участия в анализе
- •Роль отношений между участниками анализа
- •Проблемы и способы их решения
- •Роль этики в системном анализе
- •9.8. О специфике социальных систем
- •Несводимость социальных законов к биологическим и физическим
- •Существуют ли исторические закономерности?
- •"Мягкая" методология в системном анализе
- •Согласие при разногласиях
- •Учитывать будущее
- •Неожиданность как следствие сложности
- •Заключение
- •Литература
- •Вопросы для самопроверки
- •Краткий словарь специальных терминов
-
Дифференциальная энтропия
Обобщение столь полезной меры неопределенности на непрерывные случайные величины наталкивается на ряд сложностей. Можно по-разному преодолеть эти сложности; выберем кратчайший путь. Прямая аналогия -k pk log pkX p(x) logp(x)dx не приводит к нужному результату; плотность р(х) является размерной величиной, а логарифм размерной величины не имеет смысла. Однако положение можно исправить, умножив р(х) под знаком логарифма на величину E, имеющую ту же размерность, что и х: -k pk log pkX p(x) log[E.p(x)]dx.
Теперь величину E можно принять равной единице измерения х, что приводит к функционалу h(X)=- - Xp(x)log[p(x)]dx, который получил название дифференциальной энтропии. Это аналог энтропии дискретной величины, но аналог условный, относительный: ведь единица измерения произвольна. (Здесь |р(х)| есть безразмерное представление плотности.) Запись функционала h(X) означает, что мы как бы сравниваем неопределенность случайной величины, имеющей плотность р(х), с неопределенностью случайной величины, равномерно распределенной в единичном интервале. Поэтому величина h(X) в отличие от Н(Х) может быть не только положительной. Кроме того, h(X) изменяется при нелинейных преобразованиях шкалы х, что в дискретном случае не играет роли. Остальные свойства h(X) аналогичны свойствам H(Х), что делает дифференциальную энтропию очень полезной мерой.
Пусть, например, задача состоит в том. чтобы, зная лишь некоторые ограничения на случайную величину (типа моментов, пределов сверху и снизу области возможных значений и т.п.), задать для дальнейшего (каких-то расчетов или моделирования) конкретное распределение. Одним из подходов к решению этой задачи дает принцип максимума энтропии: из всех распределений, отвечающих данным ограничениям, следует выбирать то, которое обладает максимальной дифференциальной энтропией. Смысл этого критерия состоит в том, что, выбирая экстремальное по энтропии распределение, мы гарантируем наибольшую неопределенность, связанную с ним, т.е. имеем дело с наихудшим случаем при данных условиях.
-
Фундаментальное свойство энтропии случайного процесса
Особое значение энтропия приобретает в связи с тем, что она связана с очень глубокими, фундаментальными свойствами случайных процессов. Покажем это на примере процесса с дискретным временем и дискретным конечным множеством возможных состояний.
Назовем каждое такое состояние символом, множество возможных состояний - алфавитом, их число m-объемом алфавита. Число всевозможных последовательностей длины n, очевидно, равно mn. Появление конкретной последовательности можно рассматривать как реализацию одного из mn возможных событий. Зная вероятности символов и условные вероятности появления следующего символа, если известен предыдущий (в случае их зависимости), можно вычислить вероятность Р(С) для каждой последовательности C. Тогда энтропия множества {C}, по определению, равна Нn=-C{C}P(C) log P(C).
Определим энтропию процесса Н (среднюю неопределенность, приходящуюся на один символ) следующим образом: Н=limnHnn-1.
На множестве {C} можно задать любую числовую функцию fn(C), которая, очевидно, является случайной величиной. Определим fn(C) с помощью соотношения fn(C)=-n-1logP(C). Математическое ожидание этой функции Mfn(C)=CP(C)fn(C)=-n-CP(C) logP(C), откуда следует, что limn M[-n-1 log P(C)]=H.
Это соотношение, весьма интересное уже само по себе, является, однако, лишь одним из проявлений гораздо более общего свойства дискретных эргодических процессов. Оказывается, что не только математическое ожидание величины fn(C) при n имеет своим пределом H, но сама эта величина fn(C)Н при n, т.е. близость fn(C) к Н при больших п является почти достоверным событием. Это фундаментальное свойство случайных эргодических процессов приводит к ряду важных следствий, из которых три заслуживают особого внимания.
1°. Независимо от того, каковы вероятности символов и каковы статистические связи между ними, все реализации высоковероятной группы приблизительно равновероятны. В связи с этим фундаментальное свойство иногда называют "свойством асимптотической равнораспределенности". Это следствие, в частности, означает, что по известной вероятности Р(С) одной из реализации высоковероятной группы можно оценить число N1 реализации в этой группе:
2°. Энтропия Н„ с высокой точностью равна логарифму числа реализации в высоковероятной группе: Hn=n H=logN1.
3°. При больших п высоковероятная группа обычно охватывает лишь ничтожную долю всех возможных реализации (за исключением случая равновероятных и независимых символов, когда все реализации равновероятны и Н=log m).
Строгое доказательство фундаментального свойства эргодических процессов сложно и здесь не приводится. Однако следует отметить, что в простейшем случае независимости символов это свойство является следствием закона больших чисел. Действительно, закон больших чисел утверждает, что с вероятностью, близкой к 1, в длинной реализации i-й символ, имеющий вероятность рi, встретится примерно np, раз. Следовательно, вероятность реализации высоковероятной группы есть P(C) = i=1mpinP, откуда -logP(С) =i=1mpilogpi = пH, что и доказывает справедливость фундаментального свойства в этом случае.
Подведем итог: Связав понятие неопределенности дискретной величины с распределением вероятности по возможным состояниям и потребовав некоторых естественных свойств от количественной меры неопределенности, мы приходим к выводу, что такой мерой может служить только функционал, названный энтропией. С некоторыми трудностями энтропийный подход удалось обобщить на непрерывные случайные величины (введением дифференциальной энтропии) и на дискретные случайные процессы.