Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
met_SE.doc
Скачиваний:
15
Добавлен:
21.11.2018
Размер:
1.78 Mб
Скачать

Основні закономірності систем

Надамо спочатку деякі закономірності систем у викладі Б.Флейшмана [3].

«Лишь иерархическая упорядоченность мира позволяет обозреть его многообразие. В его части, известной нам, сосуществуют, взаимодействуя, три последовательно возникшие иерархии (рис. 1.1). Это естественно возникшие иерархии: физико-биологическая (А, Б) и социальная (В) – и искусственно возникшая техническая иерархия (Г). На рис.1.1 приведены лишь бесспорно выделяемые классы систем, составляющие иерархии, а промежуточные классы опущены».

Эмпирические закономерности классов систем данных иерархий.

С повышением уровня системы:

  1. Разнообразие (число различных типов систем данного класса) возрастает.

  2. Обилие или распространенность (число N однотипных систем данного типа (вида) в заданном пространстве (например, на Земле или в известной нам части Вселенной) убывает, что связано с возрастанием их размеров.

  3. Сложность (для структуры системы определяется числом ее элементов и числом связей между ними, для поведения системы определяется характером и разнообразием реакций на внешние воздействия) возрастает до уровня особи.

  4. Устойчивость (способность системы противостоять возмущающим воздействиям для самосохранения). От нее зависит продолжительность жизни системы, а от последней и их распространенность. Возрастает начиная с некоторого уровня

  5. Эмергентность (степень несводимости свойств системы к свойствам отдельных элементов, из которых она состоит) возрастает в физико-биологической иерархии по крайней мере до уровня особи. Богданов А.А. отметил, что организация системы тем выше, чем сильнее свойства целого отличаются от простой суммы его частей.

  6. Неидентичность (степень отличия систем одного и того же типа (вида) друг от друга возрастает. Так, однотипные атомы или молекулы более идентичны, чем одновидовые клетки.

Поняття ентропії

Ентропія – це ступінь невпорядковоності (невизначеності). Це поняття запозичене з термодинаміки, де ентропія пов’язана із вірогідністю певного розташування молекул. У кібернетиці та загальній теорії систем ентропія означає величину невизначеності, яка виникає при виборі з великої кількості можливих варіантів. Для зменшення ентропії необхідно зменшувати існуючу невизначеність, що досягається шляхом отримання інформації. Інформація, згідно теорії інформації, характеризується величиною, яка пов’язана із кількістю можливих варіантів вибору у системі.

Наприклад, якщо можливі 8 варіантів, то ентропія становить 3 біти. Після чотирьох виборів варіантів невизначеність залишається як решта 4 варіанти – ентропія 2 біти. Дві наступні виборки залишають два варіанти – ентропія 1 біт. Якщо зробити ще один вибір з двох варіантів, то залишається тільки один можливий варіант – невизначеність зникає, ентропія дорівнюватиме нулю.

Поняття ентропії та кількості інформації можна використовувати для характеристики живих та неживих систем. Неживі системи (які зазвичай розглядаються як закриті) мають тенденцію розвитку у напрямку до стану максимальної невпорядкованості, тобто до максимальної ентропії. Відмінністю живих (а значить, відкритих) систем є протидія процесу невпорядкованості та розвиток у напрямку більш високої організованості. Загальна теорія систем пояснює ці тенденції у такий спосіб:

а) обробка інформації призводить до зменшення позитивної ентропії

б) отримання енергії з навколишнього середовища (збільшення від’ємної ентропії, яке зветься негентропійним процесом) протидіє тенденції невідворотного природного процесу збільшення позитивної ентропії.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]