- •1.Качественные методы описания систем: метод «мозговой атаки»(кги),методы типа сценариев.
- •2.Энтропия и информационные характеристики дискретного источника(независимые сообщения).
- •3.Целостность, интегративность, коммуникативность.
- •1.Энтропия непрерывного источника.
- •2.Понятие наблюдаемости системы.
- •3.Агрегат как математическая модель непрерывно-дискретной системы.
- •1.Классификация ис по уровню организации:хорошо организованные, плохо организованные, самоорганизующиеся системы.
- •2.Модель нелинейной стохастической динамической системы:ур-е состояния, векторы состояния, управления, возмущений.
- •3.Понятие непрерывно-дискретной системы.
- •1.Закономерности формирования структур целей.
- •2.Оптимальное управление.
- •3.Технические, организационные и организационно-технологические системы:определения, особенности, свойства.
- •1.Иерархия:состояние, поведение:внешняя среда, открытые и закрытые системы, модель и цель системы.
- •2.Виды моделирования систем.
- •3.Скорость передачи информации и пропускная способность по дискретному каналу без помех.
- •1.Классификация ис:детерминированные и стохастические системы.
- •2.Модель нелинейной стохастической динамической системы.
- •3.Имитационное динамическое моделирование.
3.Целостность, интегративность, коммуникативность.
Целостность - проявляется в системе в возникновении новых интегративных качеств, не свойственных образующим ее компонентам.
закономерность целостности имеет 2 стороны:1) свойства системы (целого) не являются суммой свойств элементов или частей (несводимость целого к простой сумме частей); 2)свойства системы (целого) зависят от свойств элементов, частей (изменение в одной части вызывает изменение во всех остальных частях и во всей системе). Свойство целостности связано с целью, для выполнения которой предназначена система. Закономерность целостности называют физической аддитивностью. Свойство физической аддитивности проявляется у системы, которая как бы распалась на независимые элементы. Абсолютная целостность системы – шкала, состояние системы в этой шкале – физическая фддитивность. Рассматриваемые этапы шкалы можно характеризовать степенью проявления в ней одного или другого свойства и тенденцией его нарастания или уменьшения. Для оценки этих явлений А. Холл ввел понятия: «прогрессирующая факторизация» (стремление системы к состоянию со все более независимыми элементами), «прогрессирующая систематизация» - стремление системы к уменьшению самостоятельности элементов, т. е. к большей целостности. Интегративность – почти синоним целостности. Закономерность интегративности подчеркивают интерес исследования не к внешним факторам проявления целостности, а к более глубоким причинам формирования этого свойства (сохранение системой св-ва целостности). Интегративными называют системообразующие, системосохраняющие факторы, важными среди которых являются неоднородность и противоречивость ее элементов. Коммуникативность. Эта закономерность составляет основу определения системы. Система образует особое единство со средой; любая исследуемая система представляет собой элемент системы более высокого порядка; элементы любой исследуемой системы, в свою очередь, обычно выступают как системы более низкого порядка. Иными словами, система не изолирована, она связана множеством коммуникаций со средой, которая не однородна. Студ группа подсистема факультета.
Билет№8.
1.Энтропия непрерывного источника.
При передаче непрер-х сообщений переданные сигналы S(t) являются ф-ями времени, а принятые сигналы X(t) их искаженными вариантами. Все реальные сигналы имеют спектры осн. знергия которых сосредоточена в ограниченной полосе F. Кол-во информации которая содержится в одном отчете сигнала Xi относительно переданного сигнала Si вычисляется :
J(Si/Xi)=
Ср.кол-во информации:
(2)
Где S,X- обл.возм знач. S(передан.сигналы),X(принятые сигн), P(S,X)- совместная плотность вертности
Усредненная формула (2) представлена в виде 2х способов:
(S,X)=H(S)-H(S/X), Где H(S)=-
Н(S)-хар-ет информационные свойства сигнала, P(S)- дифф. распред-е вер-ти, H(S/X)- усл. дифф. Энтропия сигнала S
J(S,X)=H(X)-H(X/S)
H(X)-дифф.энтропия сигнала Х, H(X,S)-усл.диф. энтропия сигнала Х, подынтегральная сумма, энтропия шума.
Свойство энтропии непрерывных сообщений аналогично энтропии дискретных сообщений. Напр, S(1)<S<S(2), H(S)=log(S(2)-S(1))
Отличия энтропии дискретных сис-м от непрерыв.: Величина дифф энтропии зависит от размерности непрерывного сигнала.
Вывод: энтропия непрерывных сигналов не является мерой количества информации (у дискретных так), но характеризует степень неопределенности, присущую источнику.