- •1.Определение, назначение и архитектура эс
- •2.База знаний. Принципы, отличие знаний от данных (правила, вероятности)
- •3.Логический вывод (прямой, обратный, смешанный)
- •4.Продукционная модель (система продукция ситуация действия)
- •5.Фреймовая структура (Что это? Для чего?)
- •Нечеткая логика
- •Операции над нечеткими подмножествами
- •Лингвистическая переменная
- •Алгоритм нечеткого выбора
- •Метод центра тяжести дефазификации
- •Контроллер мамдами
- •11.Условная вероятность.Формула Байеса.Полная вероятность Условная вероятность
- •12. Байесовские сети доверия
- •Распространение свидетельств Байес. Сети доверия
- •Динамические сети доверия
- •Теория демфера-Шемфера (фрейм различия, базовая вероятность)
- •Теория дш (функция доверия, мера правдоподобия)
- •Теор дш отличие от классической теории вероятности
- •Комбинации функций доверия
- •Два подхода к обучению интеллектуальных систем (с учит, без учит)
- •Геометрический подход распознавания образов
- •Настоящий нейрон
- •Искусственный нейрон
- •Виды передаточных функций
- •Перцептрон Розенблата
- •Алгоритм обучения перцептрона Розенблата
- •Многослойный перцептрон Розенблата, архитектура, емкость сети
- •Нейронная сеть с обратным распростронение ошибки многослойного перцептрона..Проблема обучения
- •Рекур. Нейронные сети
- •[Править]Перцептроны Розенблатта с обратной связью
- •[Править]Однослойные сети с обратной связью
- •[Править]Рекуррентные сети с единичной задержкой
- •Сеть Хопфилда
- •Сеть Хемминга
Сеть Хопфилда
Нельзя строго сказать происходило обучение с учителем или без
Нейроны с обратной связью (распространяются на другие нейроны, и начинается все снова)Обратная связь к (n-1) нейрону
н
n
ейрон
х-входы
y-вектор выход
х=у
1 слой
Сеть называется ассоциативной
Два этапа:
1.Режим обучения ( Для обучения обучающую область представляют одновременно на вход и на выходю и подбираются синоптические веса, чтобы сигналы совпадали)
2. Режим работы (сеть направляет данные из входного слоя к слою Хопфилада, который колеблется (например до ошибки или пока не перестанет изменятся), конеченый сигнал передается на выходной слой. На выходе будет 1 из образов, который давали сети на этапе обучения.
Например Распознавание испорченного фото.
Сеть принимает 0,15*n образов (т.е. 15% от количества нейронов)
Сеть Хемминга
Каждый сигнал подается на каждый нейрон 1ого слоя.
m-количество образов, нейронов в слое
n-размерность
Реализуется ассоциативная память,т.е. сеть запоминает образы и по зашумленному сигналу определ. наиболее подходящие образы.
Отличие от Сети Хопфилада в том, что на выходе не изображение, а номер образа. Есть утверждение, что сеть Хемминга может распознать только слабозашумленные образы. Работает быстрее, больше емкость, простая, лучше распознание.
Емкость N0=числу выходных нейронов. N0=m
В обучении сети используются Хемминоговы Расстояния –это расстояния между двумя векторами, количество отличающихся позиций в них.Н-р: размерность =5
Вектор х1=(1,0,0,1,0)
Вектор ч2=(1,2,0,8,0)
Хеммингово расстояние между ними =2, т.к. 2 несовпадающие позиции.
Использование этого расстояния используется для восстановления слова с ошибкой. Для этого каждый символ заменяется битовой маской. Например А-оо1, В-010, С-011, m=1000000 (количество слов). Подаем на вход конкретное слово, состоящие из n букв и идет поиск. Сеть на выходе дает слово ближайшее по Хеммингову расстоянию.
Х=(х,л,а,г)
Y1-(ф,л,а,г)
d(x,y1)=1-Хем.расстояние
Y2-(г,у,л,а,г)
d(x,y2)=2
При пропущенной или лишней букве Хем.расстояние резко увеличивается, поэтому правильный образ не будет найден. Поэтому необходимо на входе добавлять все буквы без одной .Потом на вход после каждой буквы лишнюю.
Для клавиатуры битовая маска соответствует расположению клавиш.й-0001, ц=0100. Если распознается рукописный текст, то по похожести символов а=0000, о=0001,ф=0010 и т.д
Вид активационной функции сетей Хем.
Это активационная функция имеет вид порога с линейным переходом, похожа на сигмоиду, но линейна.
Требования к F- она должна быть достаточно большой, чтобы любые возможные значения аргумента не приводили к насыщению. Как правило F равно количеству обучающих примеров (F=m)
Алгоритм обучения сети
(w12) Wij-это веса между ш iым входом и jым нейроном 1ого слоя
1. Стадия инициализации
1 ВАРИАНТ
m-1
xkixkj, i=j
Wij= k=0
0
к-номер образа, соответствующего образу
2ВАРИАНТ
Wij=xki/2, i от 1…n, xki-это iтая компонента катого образца.
2. Расчет входных сигналов первого слоя
n
Y (1)j=S(1)j= wij*xi+bj
i=1
Все выполняется в данном случае без активации функции
3. Расчет расстояния нейронов 2ого слоя
m
S(2)j(р+1)=yj*(p)-Е* Y (2)k(р), k не = j, j от 1…m, 0<E<1/m
К=0
S(2)-состояние нейрона второго слоя
Е-случайный коэффициент
p-номер литерации (т.к. связь рекурсивная)
y2j(p+1)=F(Sj(p+1))
Сигнал колеблется во втором слое до тех пор, пока не перестанет изменятся