- •405. Адаптивний лінійний елемент (Розпізнавання образів і навчання)
- •406. Активні контурні моделі. (Комп'ютерний зір)
- •407. Алгоритм ebl і навчання на рівні знань (Машинне навчання, засноване на символьному представленні інформації)
- •408. Алгоритм Meta-dendral (Машинне навчання, засноване на символьному представленні інформації)
- •411. Алгоритм використовування розумних агентів (Intelligent agent)
- •412. Алгоритм зворотного розповсюдження у нейронних багатошарових мережах.
- •410. Алгоритм виключення кандидата (Машинне навчання, засноване на символьному представленні інформації)
- •409. Алгоритм Web-агента по Алан Кей (Alan Kay)
- •413. Алгоритм кластеризації Гроссберга і Карпентера.
- •414. Алгоритм методу мурашки. (Ant algorithms), оптимізація, за принципом мурашиної колонії (алгоритму (Marco Dorigo)).
- •417. Алгоритм програми використання внутрішньої бази фактів підприємства.
- •421. Використування та розробка Web-агента, поняття Кріса Лангтона (Chris Langton), структура програмного агента
- •420. Байесовській метод розпізнавання (Розпізнавання образів і навчання)
- •424. Геометричний метод розпізнавання (Розпізнавання образів і навчання)
- •425. Індуктивний алгоритм побудови дерева рішень id3 (Машинне навчання, засноване на символьному представленні інформації)
- •426. Індуктивний поріг і можливості навчання (Машинне навчання, засноване на символьному представленні інформації)
- •427. Інтерпретація контурних малюнків (Комп'ютерний зір)
- •428. Компоненти навчання з підкріпленням (Машинне навчання, засноване на символьному представленні інформації)
- •432. Моделі нейронних елементів (Розпізнавання образів і навчання)
- •433. Модель мови (Обробка природної мови)
- •434. Моделювання роботи людського інтелекту (Штучний інтелект: історія розвитку)
- •435. Навчання без вчителя шнм , засновані на правилі навчання Хебба (Розпізнавання образів! навчання)
- •436. Неповнота знань і немонотонний висновок (Основні моделі висновку)
- •437. Визначення управляючих параметрів синтезаторів мови (Обробка природної мови)
- •438. Операція узагальнення і простір понять (Машинне навчання, засноване на символьному представленні інформації)
- •439. Основні відомості про розпізнавання образів. (Розпізнавання образів і навчання)
- •440. Планування переміщень робот (Основні моделі висновку)
- •441. Попередня обробка і розпізнавання звуків. (Обробка природної мови)
- •442. Пошук при виділенні контурних сегментів (Комп'ютерний зір)
- •443. Правила висновку в численні предикатів (Представлення знань)
- •444. Принцип резолюції і система strips (Основні моделі висновку)
- •445. Програма граматичного розібрання списку на державній мові.
- •446. Програма з використанням селекторів зовнішніх баз даних.
- •447. Рекурентні алгоритми навчання розпізнаванню образів (Розпізнавання образів.І навчання)
- •448. Розпізнавання об'єктів в системах зору роботів (Комп'ютерний зір)
- •450. Семантичні мережі (Представлення знань)
- •451. Синтез мови по тексту (Обробка природної мови)
- •52. Система заснована на правилах архітектури зворотного висновку.
- •453. Системи комп'ютерного зору (Комп'ютерний зір)
- •454. Способи опису семантичних мереж і логічний висновок (Представлення знань)
- •455. Стандартизація предикативних формул (Основні моделі висновку)
- •457. Структура фрейма (Представлення знань)
- •456. Статистичний підхід до розпізнавання мови (Обробка природної мови)
- •458. Структури нейронних мереж (Розпізнавання образів і навчання)
- •459. Числення висловів (Представлення знань)
- •460. Числення предикатів (Представлення знань)
- •415. Алгоритм моделі станів (Bigram Model)
- •429. Компоненти пм-снстсми (Обробка природної мови)
412. Алгоритм зворотного розповсюдження у нейронних багатошарових мережах.
В основі конекціоністського підходу лежить спроба безпосереднього моделювання розумової діяльності людського мозку. Відомо, що мозок людини складається з величезної кількості нервових клітин (нейронів), що взаємодіють між собою, тобто являє собою природну нейронну мережу. Важливою особливістю нейроноподібних систем є їх здатність до ефективного навчання, навіть в умовах, якщо не вдається на вербальному рівні, тобто в словесній формі, сформулювати мету системи та виробити правила її поведінки. Як і вказує її назва, штучна нейронна мережа – система, яка складається із деякої кількості пристроїв, так званих штучних нейронів, з‘єднаних між собою. Ці пристрої називаються штучними нейронами завдяки певній подібності до нейронів людського мозку. Однак вони не призначені для точного копіювання усіх електрохімічних процесів, які відбуваються у мозку людини. Мозок лише виступає як модель для побудови ШНМ. Існує багато способів з‘єднання між собою ШН, отже можна виділити різні типи ШНМ. В основному вони розрізнятися за такими двома параметрами як операційні характеристики нейронів та різні конфігурації утворення мережі. Серед різних структур нейронних мереж (НМ) однієї з найбільш відомих є багатошарова структура, в якій кожен нейрон довільного шару пов'язаний зі всіма аксонами нейронів попереднього шару або, у разі першого шару, зі всіма входами НМ. Такі НМ називаються повнозв'язними. У багатошарових же мережах оптимальні вихідні значення нейронів всіх шарів, окрім останнього, як правило, не відомі, і два або більш шарових перцептрон вже неможливо навчити, керуючись тільки величинами помилок на виходах НМ. Один з варіантів вирішення цієї проблеми - розробка наборів вихідних сигналів, відповідних вхідним, для кожного шару НМ, що, звичайно, є дуже трудомісткою операцією і не завжди здійсненно. нарешті, третій, прийнятніший варіант - розповсюдження сигналів помилки від виходів НС до її входів, в напрямі, зворотному прямому розповсюдженню сигналів в звичайному режимі роботи. Цей алгоритм навчання НМ отримав назву процедури зворотного розповсюдження.
410. Алгоритм виключення кандидата (Машинне навчання, засноване на символьному представленні інформації)
У цьому розділі представлені три алгоритму [Mitchell, 1982] пошуку в просторі понять. Ці алгоритми грунтуються на понятті простору версій (version space), що представляє собою множина всіх описів поняття, що узгоджуються з навчальними прикладами. Ці алгоритми працюють за рахунок звуження простору версій з появою нових прикладів. Перші два алгоритми забезпечують звуження простору версій в напрямку від приватного до загального і від загального до приватному відповідно. Третій алгоритм, званий алгоритмом виключення кандидата (Candidate elimination), об'єднує обидва підходи і реалізує двонаправлений пошук. Ці алгоритми засновані на даних. Узагальнення виконується на основі виявлених у навчальних даних закономірностей. Крім того, оскільки в цих алгоритмах використовуються класифіковані навчальні дані, їх можна вважати різновиди- стю навчання з вчителем (supervised learning). Як і програма Вінстона, що реалізує навчання на основі структурних описів, алгоритми пошуку в просторі версій використовують і позитивні, і негативні приклади цільового поняття. Хоча операцію узагальнення можна реалізувати тільки на позитивних прикладах, негативні приклади дозволяють запобігти зайвому узагальнення. Вивчене поняття повинне бути не тільки загальним, щоб відповідати всім позитивним прикладів, але і приватним, щоб виключити всі негативні. Однак це поняття є надто загальним, оскільки включає всі існуючі екземпляри. Щоб уникнути зайвого узагальнення, необхідно систематизувати навчальні дані в мінімально можливою мірою, щоб покрити лише позитивні приклади, або використовувати негативні приклади для виключення зайвих об'єктів. В алгоритмі пошуку від приватного до загального використовується безліч гіпотез S, елементами якого є кандидати на визначення поняття. Щоб уникнути зайвого узагальнення, ці визначення-кандидати формуються як максимально конкретні узагальнення (maximally specific generalization) вихідних навчальних даних. Поняття с є максимально конкретним, якщо воно покриває всі позитивні приклади, не задовольняє ні одному негативному, і для будь-якого іншого поняття з ', що покриває всі позитивні приклади, з '> с. Можна виконувати пошук і від загального до приватного. Розглянемо алгоритм, що використовує безліч G максимально загальних понять, що покриває всі позитивні та жодного негативного прикладу. Поняття з є максимально загальним, якщо воно не покриває негативних прикладів, і для будь-якого іншого поняття з 'не покриває негативних прикладів, з> з '. У цьому алгоритмі негативні приклади забезпечують спеціалізацію понять- кандидатів, а позитивні дозволяють уникнути надмірної конкретизації понять. Алгоритм виключення кандидата забезпечує двуна- мованих пошук, який дає безліч переваг для навчальної системи. Алгоритм підтримує дві множини понять-кандидатів: G - Безліч максимально обшіх понять- кандидатів, a S - безліч максимально конкретних. У процесі роботи алгоритму спеціалізація безлічі G і узагальнення безлічі S виконується до тих пір, поки вони не зійдуться до цільовим поняттю. Алгоритм має наступний вигляд. Цікавою властивістю алгоритму винятку кандидата є його інкременталь-ність. Інкрементні алгоритми навчання припускають почергову обробку навчальних прикладів і формування задовільного, , і неповного, узагальнення після пред'явлення кожного з примірників.