Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекции объединенные.doc
Скачиваний:
27
Добавлен:
08.11.2019
Размер:
5.25 Mб
Скачать

7 Механизм логического вывода. Метод max — min.

Поскольку системы ЗИ относятся к системам с высоким уровнем неопределенности (нарушение статуса защищаемой информации, как правило, обуславливается целями и действиями людей), то методология так называемой нестрогой математики (или математики здравого смысла) должна использоваться при построении средств защиты.

Примеры:

А) Лингвистическая переменная: вероятность доступа нарушителя к защищаемой информации может быть крайне незначительной, существенной, достаточно высокой, весьма высокой и т. п.

Б) Нечеткое высказывание: Если в системе охранной сигнализации вероятность отказа датчиков значительная, то для предупреждения проникновения на контролируемую территорию постороннему интенсивность контроля за этой территорией должна быть повышенной.

В) Нечеткий алгоритм (сложное отношение между лингвистическими переменными):

Очевидно, что интенсивность контроля должна быть тем больше, чем выше степень угрозы хищения носителей, находящихся в хранилище. Степень угрозы хищения, в свою очередь, зависит от надежности:

  • Защиты территории, на которой расположены хранилища;

  • Защиты помещений, в которых находятся хранилища;

  • Замков на дверях хранилищ;

  • Библиотекарей Хранилищ.

При этом интенсивность контроля хранилищ носителей и каждого из четырех параметров, влияющих на эту интенсивность, может принимать три возможных значения (малая, средняя, большая). Тогда нечеткий алгоритм решения данной задачи принимает вид:

Блок — схема нечеткого алгоритма принятия решений:

На рисунке:

НТ — надежность защиты территории, на которой расположены хранилища;

НП — надежность защиты помещений, в которых находятся хранилища;

НЗ — надежность замков;

НБ — надежность библиотекарей хранилищ.

Данный алгоритм можно представить в виде системы правил (продукций). Например, правило1: ЕСЛИ надежность защиты территории “большая” И надежность защиты помещений “большая” И надежность замков “большая” И надежность библиотекарей “большая” ТО интенсивность контроля хранилищ “малая”.

Пример:

Правило 1: ЕСЛИ надежность защиты помещения “большая”, ТО интенсивность контроля “малая”.

Механизм (правило) логического вывода:

μB1(fкон)|Q=2*10-4=min{0.8; μB1(fкон) }.

Правило 2: ЕСЛИ надежность защиты помещения “средняя”, ТО интенсивность контроля “средняя”.

Механизм логического вывода:

μB2(fкон)|Q=2*10-4=min{0.2; μB2(fкон) }.

Правило 1 ИЛИ правило 2:

μB1UВ2(fкон)|Q=2*10-4=max {μB1(fкон) |Q=2*10-4; μB2(fкон) |Q=2*10-4} — метод MAX — MIN.

Центр тяжести:

;

Процедура принятия решений на основе нелинейной логики:

  • Фаззификация;

  • Механизм логического вывода (метод MAX — MIN);

  • Дефаззификация.

Принятие решений с использованием искусственных нейронных сетей

Термины: “Икусственные нейронные сети” (Artificial Neural Network);

“Нейроматематика”; “Нейроинформатика”; “Нейрокомпьютер”; “Нейрочип”.

История вопроса:

40–е годы — термин “Нейронные сети”;

1943 — модель Мак–Каллока–Питтса;

1958 — персептрон (Ф. Розенблатт);

1969 — М. Мински, Пайпер (критика персептрона);

с 1988 — Нейробум (Япония).

Применение нейронных сетей в задачах ЗИ:

  • Распознавание образов (лица, голоса, отпечатков пальцев, почерка, манеры работы с клавиатурой, количества атак на компьютер и т. д.).

  • прогнозирование временных процессов;

  • построение нелинейных моделей исследовательских сложных объектов (процессов) (например в задачах контроля датчиков).

4 Структура (топология) простейшей нейронной сети — персептрона.

Основные свойства (признаки) персептрона:

  • Нейтроны каждого слоя не связаны между собой;

  • Нейтроны входного слоя не осуществляют преобразование информации;

  • Выходной сигнал каждого нейтрона поступает на входы всех нейтронов следующего слоя.

Обобщенная модель нейтрона:

Примеры активации функции:

Главной особенностью нейронных сетей является способность обучения весов ее синаптических связей (на примерах):

5 Алгоритм обучения сети (общая процедура):

, где  — суммарная квадратическая ошибка обучения нейронной сети.

Алгоритм обучения нейронной сети:

  1. Задаются начальные значения весов сети wij(k) (малые случайные величины);

  2. На вход сети подаются вектор входных величин X = (x1, x2, … , xm);

  3. Вычисляется выходная реакция нейронной сети Y = (y1, y2, … , yn);

  4. Вычисляются разности , где di — желаемая выходная реакция по i–му выходу;

  5. Вычисляются новые значения весов нейронной сети

(Алгоритм обратного распространения — вначале вычисляются веса Wij(N-1), затем Wij(N-2), и так далее, вплоть до Wij(1)).

6) На вход сети подаются вектор X = (x1, x2, … , xm);

Обучение продолжается до тех пор, пока ошибка E не достигнет заранее заданной величины, или по достижению заданного количества циклов обучения.

Нейрокомпьютер — устройство, реализующее механизмы обучения и функционирования нейронной сети.

Способы реализации нейрокомпьютеров:

  1. Программная эмуляция (нейропакеты, нейроимитаторы);

  2. нейрочипы

Особенности:

  • Высокое быстродействие;

  • отказоустойчивость;

  • помехозащищенность;

  • обучение;

  1. другие способы (оптические нейрокомпьютеры и др.).