- •Введение
- •1. Возникновение и развитие системных представлений
- •1.1. Предварительные замечания
- •1.2. Роль системных представлений в практической деятельности
- •Системность и алгоритмичность
- •1.3. Внутренняя системность познавательных процессов
- •Анализ и синтез в познании
- •Эволюция взглядов на системность мышления
- •1.4. Системность как всеобщее свойство материи
- •Вся природа системна
- •Системы как абстракция
- •Свойства любых систем
- •1.5. Краткий очерк истории развития системных представлений
- •Системность как объект исследования
- •Первые шаги кибернетики
- •Тектология богданова
- •Кибернетика винера
- •Попытки построения общей теории систем
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •2. Модели и моделирование
- •2.1. Широкое толкование понятия модели
- •Развитие понятия модели
- •Модель как философская категория
- •2.2. Моделирование - неотъемлемый этап всякой целенаправленной деятельности
- •Цель как модель
- •Познавательные и прагматические модели
- •Статические и динамические модели
- •2.3. Способы воплощения моделей
- •Абстрактные модели и роль языков
- •Материальные модели и виды подобия
- •Знаковые модели и сигналы
- •2.4. Условия реализации свойств моделей
- •2.5. Соответствие между моделью и действительностью: различия
- •Конечность моделей
- •Упрощенность моделей
- •Приближенность моделей
- •Адекватность моделей
- •2.6. Соответствие между моделью и действительностью: сходство
- •Истинность моделей
- •Сочетание истинного и ложного в модели
- •2.7. О динамике моделей
- •Сложности алгоритмизации моделирования
- •Естественная эволюция моделей
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •3. Системы модели систем
- •3.1. Множественность моделей систем
- •3.2. Первое определение системы
- •Проблемы и системы
- •Сложности выявления целей
- •3.3. Модель "черного ящика"
- •Компоненты "черного ящика"
- •Сложности построения модели "черного ящика"
- •Множественность входов и выходов
- •3.4. Модель состава системы
- •Компоненты модели состава
- •Сложности построения модели состава
- •3.5. Модель структуры системы
- •Отношения и структуры
- •Свойство и отношение
- •3.6. Второе определение системы. Структурная схема системы
- •Структурная схема как соединение моделей
- •3.7. Динамические модели систем
- •Отображение динамики системы
- •Функционирование и развитие
- •Типы динамических моделей
- •Общая математическая модель динамики
- •Заключение
- •Упражнения
- •Вопросы для самопроверки
- •4. Искусственные и естественные системы
- •4.1. Искусственные системы и естественные объекты
- •4.2. Обобщение понятия системы. Искусственные и естественные системы
- •Структурированность естественных объектов
- •Субъективные и объективные цели
- •4.3. Различные классификации систем
- •Классификация систем по их происхождению
- •Типы переменных системы
- •Типы операторов системы
- •Типы способов управления
- •4.4. О больших и сложных системах
- •Ресурсы управления и качество системы
- •Различение больших и сложных систем
- •Другие подходы к понятию сложности
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •5. Информационные аспекты изучения систем
- •5.1. Информация как свойство материи
- •5.2. Сигналы в системах
- •Понятие сигнала
- •Типы сигналов
- •5.3. Случайный процесс - математическая модель сигналов
- •Непредсказуемость - основное свойство сигналов
- •Классы случайных процессов
- •5.4. Математические модели реализации случайных процессов
- •Моделирование конкретных реализации
- •Некоторые модели ансамбля реализации
- •5.5. О некоторых свойствах непрерывных сигналов
- •Частотно-временное представление сигналов
- •Дискретное представление сигналов
- •5.6. Энтропия
- •Понятие неопределенности
- •Энтропия и ее свойства
- •Дифференциальная энтропия
- •Фундаментальное свойство энтропии случайного процесса
- •5.7. Количество информации
- •Количество информации как мера снятой неопределенности
- •Количество информации как мера соответствия случайных объектов
- •Свойства количества информации
- •Единицы измерения энтропии и количества информации
- •Количество информации в индивидуальных событиях
- •5.8. Об основных результатах теории информации
- •Избыточность
- •Скорость передачи и пропускная способность
- •Кодирование в отсутствие шумов
- •Кодирование при наличии шумов
- •Пропускная способность гауссова канала связи
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •6. Роль измерений в создании моделей систем
- •6.1. Эксперимент и модель
- •Классическое представление об эксперименте
- •Современное понятие эксперимента
- •6.2. Измерительные шкалы
- •Шкалы наименований
- •Порядковые шкалы
- •Модифицированные порядковые шкалы
- •Шкалы интервалов
- •Шкалы отношений
- •Шкалы разностей
- •Абсолютная шкала
- •Согласование шкалы с природой наблюдений
- •О других шкалах
- •6.3. Расплывчатое описание ситуаций
- •Понятие расплывчатости
- •Основные понятия теории расплывчатых множеств
- •6.4. Вероятностное описание ситуации. Статистические измерения
- •Понятие случайной неопределенности
- •О природе случайности
- •Статистические измерения
- •6.5. Регистрация экспериментальных данных и ее связь с последующей их обработкой
- •Классификационные модели
- •Числовые модели
- •Особенности протоколов наблюдений
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •7. Выбор (принятие решений)
- •7.1. Многообразие задач выбора
- •Выбор как реализация цели
- •Множественность задач выбора
- •7.2. Критериальный язык описания выбора
- •Выбор как максимизация критерия
- •Сведение многокритериальной задачи к однокритериальной
- •Условная максимизация
- •Варианты оптимизации при разноважных критериях
- •Выбор между упорядочениями
- •Поиск альтернативы с заданными свойствами
- •Нахождение паретовского множества
- •7.3. Описание выбора на языке бинарных отношений
- •Способы задания бинарных отношений
- •Отношения эквивалентности, порядка и доминирования
- •Об оцифровке порядковых шкал
- •7.4. Язык функций выбора
- •Функции выбора как математический объект
- •Ограничения на функции выбора
- •7.5. Групповой выбор
- •Описание группового выбора
- •Различные правила голосования
- •Парадоксы голосования
- •7.6. Выбор в условиях неопределенности
- •Задание неопределенности с помощью матрицы
- •Критерии сравнивания альтернатив при неопределенности исходов
- •Общее представление о теории игр
- •7.7. О выборе в условиях статистической неопределенности
- •Статистические решения как выбор
- •Общая схема принятия статистических решений
- •Понятие об основных направлениях математической статистики
- •Правила "статистической техники безопасности"
- •7.8. Выбор при расплывчатой неопределенности
- •Многокритериальный выбор в расплывчатой ситуации
- •Некритериальные задачи расплывчатого выбора
- •7.9. Достоинства и недостатки идеи оптимальности
- •Достоинства оптимизационного подхода
- •Ограниченность оптимизационного подхода
- •7.10. Экспертные методы выбора
- •Факторы, влияющие на работу эксперта
- •Методы обработки мнений экспертов
- •Метод "делфи"
- •7.11. Человеко-машинные системы и выбор
- •Пакеты прикладных программ для выбора
- •Базы знаний, экспертные системы
- •Системы поддержки решений
- •7.12. Выбор и отбор
- •Повторный выбор
- •Основные идеи теории элитных групп
- •Процедура "претендент- рекомендатель"
- •Процедуры "прополка" и "снятие урожая"
- •Процедура "делегирование"
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •8. Декомпозиция и агрегирование как процедуры системного анализа
- •8.1. Анализ и синтез в системных исследованиях
- •Сочетание анализа и синтеза в системном исследовании
- •Особенности синтетических методов
- •8.2. Модели систем как основания декомпозиции
- •Содержательная модель как основание декомпозиции
- •Связь между формальной и содержательной моделями
- •Проблема полноты моделей
- •8.3. Алгоритмизация процесса декомпозиции
- •Компромиссы между полнотой и простотой
- •Типы сложности
- •Алгоритм декомпозиции
- •8.4. Агрегирование, эмерджентность, внутренняя целостность систем
- •Эмерджентность как результат агрегирования
- •8.5. Виды агрегирования
- •Конфигуратор
- •Агрегаты-операторы
- •Классификация как агрегирование
- •Функция нескольких переменных как агрегат
- •Статистики как агрегаты
- •Агрегаты-структуры
- •Заключение
- •Литература
- •Упражнения
- •Вопросы для самопроверки
- •9. О неформализуемых этапах системного анализа
- •9.1. Что такое системный анализ
- •Разнородные знания и системный анализ
- •Системный анализ как прикладная диалектика
- •9.2. Формулирование проблемы
- •Превращение проблемы в проблематику
- •Методы построения проблематики
- •9.3. Выявление целей
- •Опасность подмены целей средствами
- •Влияние ценностей на цели
- •Множественность целей
- •Опасность смешения целей
- •Изменение целей со временем
- •9.4. Формирование критериев
- •Критерии как модель целей
- •Причины многокритериальности реальных задач
- •Критерии и ограничения
- •9.5. Генерирование альтернатив
- •Способы увеличения числа альтернатив
- •Создание благоприятных условий
- •Способы сокращения числа альтернатив
- •Мозговой штурм
- •Синектика
- •Разработка сценариев
- •Морфологический анализ
- •Деловые игры
- •9.6. Алгоритмы проведения системного анализа
- •Трудности алгоритмизации системного анализа
- •Компоненты системных исследований
- •9.7. Претворение в жизнь результатов системных исследований
- •Внедрение результатов системного анализа в практику
- •Необходимость методологии внедрения
- •Рост и развитие
- •Условие добровольности участия в анализе
- •Роль отношений между участниками анализа
- •Проблемы и способы их решения
- •Роль этики в системном анализе
- •9.8. О специфике социальных систем
- •Несводимость социальных законов к биологическим и физическим
- •Существуют ли исторические закономерности?
- •"Мягкая" методология в системном анализе
- •Согласие при разногласиях
- •Учитывать будущее
- •Неожиданность как следствие сложности
- •Заключение
- •Литература
- •Вопросы для самопроверки
- •Краткий словарь специальных терминов
-
Кодирование в отсутствие шумов
С помощью введенных понятий можно рассмотреть многие информационные процессы. Начнем с дискретных систем без шумов. Здесь главное внимание привлекает проблема эффективности: важно, чтобы данная информация заняла в запоминающем устройстве как можно меньше ячеек, при передаче желательно занимать канал связи на максимально короткий срок. В такой постановке задачи легко распознается проблема устранения всякой избыточности. Однако эта проблема не тривиальна.
Пусть алфавит системы состоит из m символов. Средствами этого алфавита требуется представить любой из М возможных сигналов {uk}, k=1, ... , M, вероятности которых {р(uk)} заданы. Обычно М>т, поэтому каждый из сигналов, подлежащих передаче, невозможно обозначить только одним символом и приходится ставить им в соответствие некоторые последовательности символов; назовем их кодовыми словами. Так как возможна последовательная передача разных кодовых слов, то они не только должны различаться для разных uk, но и не должны быть продолжением других, более коротких. Пусть сигналу uk соответствует кодовое слово длиной lk символов. При стационарной передаче сигналов с вероятностями {р(uk)} средняя длина кодового слова равна L=k lkp(uk).
Возникает вопрос о том, как выбирать L и {lk}. Он не имеет смысла, пока не задан критерий выбора этих величин. Определим этот критерий так: L и {lk} должны быть минимальными величинами, такими, при которых еще не происходит потери информации. Напомним, что в отсутствие шумов среднее количество информации на один элемент uk ансамбля {uk} равно энтропии этого ансамбля, т.е. H(U)=k=1Mp(uk)logp(uk), а индивидуальное количество информации в uk есть i(uk)=-logp(uk). С другой стороны, на один символ придется максимальное количество информации, если символы равновероятны и независимы; при этом i = log m. Поскольку кодирование должно вестись без потерь информации, сразу получаем: H(U)log-1mL; i(uk)log-1mlk i(uk)log-1m + 1;
Так из общих соображений находим нижние границы для L и lk. В теории информации доказываются теоремы об условиях достижимости этих границ. Мы не будем приводить эти теоремы; укажем лишь, что речь идет не только о принципиальной возможности: разработаны процедуры построения кодов, обеспечивающих безызбыточное кодирование (либо в случае невозможности этого - сколь угодно близкое к нему).
-
Кодирование при наличии шумов
Наиболее интересные и важные результаты были получены при рассмотрении передачи информации по каналам связи с шумами. В этом случае безызбыточное кодирование приведет к безвозвратным потерям информации: искаженный символ нельзя ни обнаружить, ни исправить. Для борьбы с влиянием помех необходимо ввести избыточность в сигнал. Основываясь на интуитивных соображениях (например, на опыте многократного повторения), легко прийти к выводу, что при неограниченном повышении требований к малости вероятности ошибки избыточность и при любом способе кодирования должна неограниченно возрастать, а скорость передачи - стремиться к нулю. Здесь мы имеем яркий пример того, как сильно интуиция может привести к заблуждению. Шеннон показал, что существуют такие способы введения избыточности, при которых обеспечиваются одновременно и сколь угодно малая вероятность ошибки, и конечная (отличная от нуля) скорость передачи информации, причем эта скорость может быть сколь угодно близкой к пропускной способности канала. Это замечательное открытие и привлекло столь большое внимание к теории информации.
Воспроизведем упрощенное доказательство указанного утверждения. Рассмотрим схему передачи по каналу с шумом. Будем считать, что на вход кодера сигналы поступают закодированными безызбыточно. Кодер вносит в сигналы избыточность, увеличивая длительность кодовых слов. Число возможных последовательностей сразу резко увеличивается, но избыточность и состоит в том, что к отправке предназначаются не все из них, а лишь разрешенные. Согласно фундаментальному свойству энтропии, число всевозможных последовательностей длины n равно 2nH(X) а число разрешенных к отправке равно 2nH<2nH(X) (считаем, что энтропия исчисляется в битах); H-энтропия на символ во множестве разрешенных к отправке последовательностей ("энтропия источника", или "скорость создания информации"), Н(Х)-энтропия на символ во множестве всевозможных последовательностей. В результате воздействия шумов какие-то из символов отправленной последовательности подменяются другими и на приемный конец поступает другая, отличная от отправленной, последовательность. Поскольку p(x|y) считается известным, каждой принятой последовательности соответствует 2nH(X|Y) возможно отправленных. Декодирование (т.е. принятие решения о том, какая последовательность была отправлена) можно выразить как разбиение всего множества К принимаемых последовательностей на 2nH подмножеств, сопоставляемых с разрешенными к отправке: если, например, принят сигнал i-й группы, то считается, что был послан i-й разрешенный сигнал, который тут же выдается в "чистом" виде получателю.
Итак, в построенной модели проблема выбора кода (способа передачи) состоит в размещении разрешенных последовательностей среди множества всевозможных на передающем конце и в разбиении этого множества из 2nH(X) последовательностей на 2nH подмножеств на приемном конце. Идея Шеннона состоит не в том, чтобы указать некоторый регулярный способ кодирования со сколь угодно малой вероятностью ошибки, а в том, чтобы показать, что такой код вообще существует. Рассмотрим класс всевозможных кодов, которые получаются, если разрешенные последовательности размещать среди всевозможных случайным образом, а в качестве декодирующего подмножества брать 2nH(X/Y) последовательностей высоковероятностной группы, соответствующей принятому сигналу.
Вероятность ошибки при этом равна вероятности того, что среди 2nH(X/Y) последовательностей окажется более одной разрешенной. Так как код получается в результате случайного (равновероятностного) выбора 2nH последовательностей среди 2nH(X), то вероятность того, что данная последовательность окажется разрешенной, равна 2nH/2nH(X)=2nH-nH(X). Средняя вероятность того, что в декодирующем подмножестве из 2nH(X/Y) последовательностей имеется только одна разрешенная, выразится соотношением P=(1-2n(H-H(X))2nH(X/Y)-1; это и есть вероятность безошибочного приема. Поскольку H<C=H(Х)-Н(Х|Y), имеем H(Х)-Н(Х)=-Н(Х|Y)-, где >0. Отсюда (пренебрегая единицей по сравнению с 2nH(X/Y) ) находим P=(1-2-n(H|Y)+)2nH(X/Y).
Логарифмируя и применяя правило Лопиталя, легко показать, что lim|n P=1, т.е. что при кодировании достаточно длинными блоками средняя вероятность ошибки может быть сделана сколь угодно малой. Доказательство завершается утверждением, что существуют коды с вероятностями ошибок меньше средней.