Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

test2

.docx
Скачиваний:
17
Добавлен:
10.12.2018
Размер:
27.25 Кб
Скачать

Тести. Нейронні мережі. Модуль 2 Часть 2

30) Якщо m елементів сигналу х(i) зароджуються в різних точках простору, то вхідний сигнал можна вважати моментальним знімком даних a) так b) немає 31) Основна ідея методу Ньютона полягає в мінімізації квадратичної апроксимації функції вартості E(w) в точці w(n). a) так b) немає 32)Для ергодичного процесу лінійний фільтр, побудований по методу найменших квадратів, асимптота сходиться до фільтру Вінера у міру наближення кількості спостережень до нескінченності. a) так b) немає 33) Вектори вхідних сигналів х(1), х(2) . . . є статистично незалежних один від іншого. a) так b) немає 34) У момент часу п вектор вхідного сигналу х(n) є статистично незалежним від всіх попередніх бажаних відгуків, Тобто d(1), d(2) . .., d(n - 1). a) так b) немає 35) У момент часу n бажаний відгук d( n) залежить від вектора х( n), але статистично не залежить від всіх попередніх значень бажаного відгуку. a) так b) немає 36) Вектор вхідного сигналу х (n) і бажаний відгук d( n) вибираються з множини, що підпорядковується розподілу Гауса. a) так b) немає 37) Якщо ви не знаєте, з чим зіткнулися, припустите найгірше і . a) оптимізуйте рішення. b) Сподівайтеся на краще c) Запитаєте у кого небудь d) Немає правильної відповіді 38) корисною характеристикою адаптивного фільтру, що отримується з усередненої кривої навчання, є a) Непогодження b) Узгодження c) Неузгодження d) Немає правильної відповіді 39) однією важливою характеристикою алгoритму мінімізації средньоквадратичної помилки є a) час установки b) час видалення c) час усунення d) немає правильної відповіді 40) Зокрема, для настройки вагових коефіцієнтів можна використовувати алгоритм, що заснований на корекції помилок і отримав назву a) Алгоритму збіжності персептрона b) Алгоритму разходження персептрона c) Алгоритму перетину персептрона d) немає правильної відповіді 41) Сигмоїдальні функції отримали свою назву завдяки формі cвогo графіка у вигляді букви . a) S b) C c) U d) T 42) Довільні асимптоти обмежені та строго монотонні функції однієї змінної. a) Прості сигмоїди. b) Гіперболічні сигмоїди. c) Складні сигмоїди d) немає правильної відповіді 43) Повна підмножина простих сигмоїд, що є узагальненням функції гіперболічного тангенса є. a) Прості сигмоїди. b) Гіперболічні сигмоїди. c) Складні сигмоїди d) немає правильної відповіді 44) вхідний сигнал (стимул), що поступає в мережу і передаваний вперед від нейрона до нейрона по всій мережі. a) Функціональний сигнал b) Сигнал помилки c) Сигнал виходу d) немає правильної відповіді 45) Сигнал бере свій початок на виході мережі і розповсюджується у зворотному напрямі a) Функціональний сигнал b) Сигнал помилки c) Сигнал виходу d) немає правильної відповіді 46) Обчислення функціонального сигналу на виході нейрона, що реалізовується у вигляді безперервної нелінійної функції від вхідного сигналу і синаптичних ваг, пов'язаних з даним нейроном. a) так b) немає 47) Обчислення оцінки вектора градієнта необхідного для зворотного проходу через мережу. a) так b) немає 48) При прямому проході синаптичні ваги залишаються незмінними у всій мережі, а функціональні сигнали обчислюються послідовно, від нейрона до нейрона. a) так b) немає 49) У цьому режимі коректування ваг проводиться після подачі кожного прикладу. a) Послідовний режим b) Пакетний режим c) Стартовий режим d) немає правильної відповіді 50) навчання по методу зворотнього розповсюдження коректування ваг проводиться після подачі в мережу прикладів навчання a) Послідовний режим b) Пакетний режим c) Стартовий режим d) немає правильної відповіді 51) Вважається, що алгоритм зворотного розповсюдження зійшовся, якщо евклідова норма вектора градієнта досягає достатньо малих значень. a) так b) немає 52) Критерієм збіжності алгоритму зворотного розповсюдження є достатньо мала абсолютна інтенсивність змін середньоквадратичної помилки протягом епохи. a) так b) немає 53) Припускаючи відсутність апріорної інформації, генеруємо синаптичні ваги і порогові значення за допомогою датчика рівномірно розподілених чисел з середнім значенням 0. a) Ініціалізація b) Пред'явлення прикладів навчання c) Інсталяція d) Ітерація 54) У мережу подаються образи з навчаючої множини (епохи). Для кожного образу послідовно виконуються прямий і зворотний проходи a) Ініціалізація b) Пред'явлення прикладів навчання c) Інсталяція d) Ітерація 55) Послідовно виконуємо прямий і зворотний проходи, пред'являючи мережі все при заходи навчання з епохи, поки не буде досягнуто критерію зупинки. a) Ініціалізація b) Пред'явлення прикладів навчання c) Інсталяція d) Ітерація 56) Як правило, кожен повчальний приклад, що надається алгоритму зворотного розподілу, потрібно вибирати з міркувань найбільшої інформаційної насиченості в області вирішуваного завдання a) Максимізація інформативності b) Функція активації c) Нормалізація входів d) немає правильної відповіді 57) Багатошаровий персептрон, що навчається по алгоритму зворотного розповсюдження a) Максимізація інформативності b) Функція активації c) Нормалізація входів d) немає правильної відповіді 58) Всі вхідні змінні повинні бути заздалегідь оброблені так, щоб середнє значення по всій повчальній множині було близьке до нуля, інакше їх буде складно порівнювати зі стандартним a) Максимізація інформативності b) Функція активації c) Нормалізація входів d) немає правильної відповіді 59) Вектор спостереження Х відноситься до класу C1, якщо відношення правдоподібності Л(х) більше порогового значення про і до класу С2 в решті випадків. a) так b) немає 60) описує лінійне перетворення багатовимірного завдання в одновимірну. a) лінійний дискримінант Фішера b) нелінійний дискримінант Фішера c) перетворення Фішера d) немає правильної відповіді 61) Обчислення Гессіана складає основу процедури повторногo навчання багатошарового персептрона після внесення невеликих змін в безліч прикладів навчання. a) так b) немає 62) Матрицю, зворотну Гессіану, можна використовувати для визначення меж помилок при нелінійному прогнозуванні, що виконується за допомогою навченої нейронної мережі. a) так b) немає 63) Власні значення матриці Гессе можна використовувати для знаходження значень параметрів регуляризації. a) так b) немає 64) У якому році були опубліковані дві роботи по використанню персептронів як універсальних апроксимацій a) 1988 b) 1989 c) 1990 d) 1991 65) Відповідно до теореми про універсальну апроксимацію для задоволення цієї вимоги розмір прихованого шару m1 повинен бути великим. a) Точність якнайкращої апроксимації b) Точність емпіричної відповідності апроксимації c) Точність розрахунків d) Немає правильної відповіді 67) Функція, визначена в просторі великої розмірності, швидше за все, є значно складнішою, ніж функція, визначена в просторі меншої розмірності, і цю складність важко розгледіти. a) так b) немає 68) Підмножина використовувана для вибору моделі. a) Підмножина для оцінювання b) Перевірочна підмножина c) Підмножина результатів d) Немає правильної відповіді 69) Підмножина використовувана для тестування моделі. a) Підмножина для оцінювання b) Перевірочна підмножина c) Підмножина результатів d) Немає правильної відповіді 70) ідея перехресних перевірок у вигляді технології вона оформилася в . a) 1950 – 1960 x роках. b) 1960 – 1970 x роках c) 1970 – 1980 x роках d) Немає правильної відповіді 71) Режим при якому N < 30W, де N – розмір навчальної множини; W – кількість вільних параметрів мережі. a) не асимптотичний режим b) асимптотичний режим c) Режим відладки d) Немає правильної відповіді 73) Мінімізувати розмір мережі можна способами. a) Нарощування мережі b) Спрощення структури мережі c) Видалення мережі d) Немає правильних відповідей 74) Передбачається, що параметри віддаляються з мережі тільки після збіжності процесу навчання a) Зовнішня апроксимація b) Квадратична апроксимація c) Кубічна апроксимація d) Немає правильних відповідей 75) Передбачається, що поверхня помилок в околиці глобального або локального мінімуму є приблизно "квадратичною". a) Зовнішня апроксимація b) Квадратична апроксимація c) Кубічна апроксимація d) Немає правильних відповідей 76) Обчислювальна складність алrоритму зазвичай вимірюється в термінах кількості операцій a) складання b) множення c) зберігання d) ділення 77) У якому році було розглянуто завдання навчання для багатошарових мереж прямоro розповсюдження з лінійними функціями активації на основі методу оберненого розповсюдження. a) 1989 року b) 1988 року c) 1987 року d) 1986 року 78) У якому році був розглянутий більш загальний випадок навчання методом обратноro розповсюдження для мережі, що містить нелінійні нейрони. a) 1992 року b) 1993 року c) 1994 року d) 1995 року 79) При послідовних ітераціях метод зв'язаних напрямів мінімізує квадратичну функцію f(x) в лінійному просторі векторів, що поступово розширюється, містить точку глобального мінімуму цієї функції. a) так b) немає 80) У якій фазі знаходиться група, що є нетривіальним інтервалом, що гарантовано містить мінімум. a) Фаза угрупування b) Фаза розділення c) Фаза складання d) Фаза ділення 81) У цьому класі асоціативних машин відгуки різних предикторів (експертів) об'єднуються за допомогою деякого механізму, не враховуючи вхідний сигнал. a) Статичні структури b) Динамічні структури c) Статистичні структури d) Немає правильної відповіді 82) У цьому класі асоціативної машини вхідний сигнал безпосередньо враховується в механізмі об'єднання вихідних сигналів експертів a) Статичні структури b) Динамічні структури c) Статистичні структури d) Немає правильної відповіді 83) Вихідний сиrнал обчислюється як лінійна комбінація виходів окремих предикторів. a) Усереднювання по ансамблю b) Посилення c) Зменшення d) Немає правильної відповіді 84) Дія при якому слабкий алrоритм навчання перетворюється на алгоритм, що досягає довільної заданої точності. a) Усереднювання по ансамблю b) Посилення c) Зменшення d) Немає правильної відповіді 85) Метод посилення може бути реалізований способами. a) Посилення за рахунок фільтрації b) Посилення за рахунок формування підвибірок c) Посилення шляхом перерахунку d) Немає правильної відповіді 86) Цей підхід припускає відбір прикладів навчання різними версіями слабкого алroритму навчання. a) Посилення за рахунок фільтрації b) Посилення за рахунок формування підвибірок c) Посилення шляхом перерахунку d) Немає правильної відповіді 87) Цей підхід припускає наявність безлічі прикладів навчання фіксованого розміру. a) Посилення за рахунок фільтрації b) Посилення за рахунок формування підвибірок c) Посилення шляхом перерахунку d) Немає правильної відповіді 88) Цей підхід пов'язаний з обробкою фіксованої безлічі прикладів. a) Посилення за рахунок фільтрації b) Посилення за рахунок формування підвибірок c) Посилення шляхом перерахунку d) Немає правильної відповіді 89) Різні генеральні сукупності генерують різні дані, при цьому походження будь-якого заданого прикладу правдоподібніше для деякої визначеної сукупності, чим для решти сукупностей. a) так b) немає 90) Цей підхід забезпечує алroритм для максимізації в реальному часі. a) Підхід на основі стохастичного градієнта b) Підхід на основі максимізації очікування c) Підхід на основі мінімізації очікування d) Немає правильної відповіді 91) Алroритм максимізації очікування, згідно, реалізує ітеративну процедуру обчислення оцінки максимальноrо правдоподібності в ситуаціях, коли ця проблема вирішується дуже легко. a) Підхід на основі стохастичного градієнта b) Підхід на основі максимізації очікування c) Підхід на основі мінімізації очікування d) Немає правильної відповіді 92) Крок на якому безліч спостережуваних даних неповного завдання і поточне значення вектора параметрів використовуються для отримання розширеного повного набору даних а) Шаг очікування b)Шаг максимізації з)Шаг зупинки d)Немає правильної відповіді 93) Крок який полягає в обчисленні нової оцінки вектора параметрів шляхом максимізації функції логарифмічної подібності повної безлічі даних а)Шаг очікування b) Шаг максимізації з)Шаг зупинки d)Немає правильної відповіді 95) Моделі які дають уявлення про дане завдання, але не відрізняються особливою точністю. a) Прості моделі b) Складні моделі c) Складені моделі d) Немає правильної відповіді 96) Моделі які дають точні результати, не дуже заглиблюючись в саме завдання. a) Прості моделі b) Складні моделі c) Складені моделі d) Немає правильної відповіді 97) У відповідь на вхідні обурення дана мережа формує певні образи a) Рівень активності b) Рівень зв'язності c) Рівень зв'язаності d) Рівень неактивності 98) Зв'язки мережі змінюються у відповідь на нейронні сиrнали образів активності завдяки синаптичної пластичності. a) Рівень активності b) Рівень зв'язності c) Рівень зв'язаності d) Рівень неактивності 99) Обмеженість ресурсів веде до конкуренції між синапсами і, таким чином, до вибору найбільш синапсів, що успішно розвиваються, за рахунок інших a) так b) немає 100) Зміна синаптичних ваг веде до самопосилення мережі a) так b) немає 101) Модифікація синаптичних ваг веде до кооперації. a) так b) немає 102) Порядок і структура образів активації містять надмірну інформацію, що накопичується мережею у формі знань, що є необхідною умовою навчання, яка самоорганізовується. a) так b) немає 103) Після вибору положення синаптичних зв'язків вони залишаються фіксованими впродовж всього процесу розвитку нейронної структури. a) так b) немає 104) Всі нейрони виступають як лінійні суматори. а)да b) ні 105) Методи нелінійного аналізу головних компонентів (за винятком РСА ядра) можна розділити на класи a) Мережі Хебба b) Мережі реплікації c) Головні криві d) Мережі регенерації 106) Клас отриманий шляхом заміни лінійних нейронів в подібних Хеббовських алгоритмах РСА нелінійними нейронами a) Мережі Хебба b) Мережі реплікації c) Головні криві d) Мережі регенерації 107) Клас створений на базі багатошарових персептронів a) Мережі Хебба b) Мережі реплікації c) Головні криві d) Мережі регенерації 108) Клас заснований на ітеративній оцінці кривої або поверхні, який описує структуру даних a) Мережі Хебба b) Мережі реплікації c) Головні криві d) Мережі регенерації 109) За допомогою еволюції або накопиченого досвіду мозок виявляє, що об'єкти можна класифікувати на класи об'єктів меншої розмірності, враховуючи їх форми. a) так b) немає 110) У картах самоорганізації нейрони поміщаються у вузлах решітки, зазвичай oдно– або двомірною. a) так b) немає 111) Як нейронні моделі карти, які самоорганізовуються, реалізують міст між двома рівнями адаптації. а) Правилами адаптації, сформульованими на мікрорівні одного нейрона. b)Сети реплікації з)Немає правильної відповіді d) Об’єднання експериментально кращих і фізично доступніших моделей витягання ознак мікрорівнів шарів нейронів. 112) Обчислювальні карти володіють наступними властивостями . a) Адаптивність b) Немає правильної відповіді c) На кожному етапі уявлення що кожен поступає фраrмент інформації зберігається в своєму контексті. d) Нейрони, що працюють з близько розташованими областями інформації, також розташовані достатньо близько один до одного, таким чином взаємодіючи один з одним за допомогою коротких синаптичних зв'язків. 113) Просторове положення вихідних нейронів в топографічній карті відповідає конкретній області ознак даних, виділених з вхідного простору. a) так b) немає 114) Після коректної ініціалізації мережі для формування карти самоорганізації запускаються три наступні основні процеси. a) Конкуренція b) Кооперація c) Синаптична адаптація d) Немає правильної відповіді 115) Для кожного вхідного образу нейрони мережі обчислюють відносні значення функції дискримінанта. a) Конкуренція b) Кооперація c) Синаптична адаптація d) Немає правильної відповіді 116)Переможний нейрон визначає просторове положення топологічної околиці нейронів, забезпечуючи тим самим базис для кооперації між цими нейронами. a) Конкуренція b) Кооперація c) Синаптична адаптація d) Немає правильної відповіді 117) Останній механізм дозволяє збудженим нейронам збільшувати власні значення функцій дискримінантів по відношенню до вхідних образів за допомогою відповідних коректувань синаптичних ваг. a) Конкуренція b) Кооперація c) Синаптична адаптація d) Немає правильної відповіді 118) Безперервний вхідний простір образів активації нейронів за допомогою процесу конкуренції між окремими нейронами мережі відображається в дискретний вихідний простір. a) так b) немає 119) Алгоритм Ллойда вперше був описаний в а)1954 року b)1955 року з)1956 року d) 1957 року 120) Карта ознак Ф, npeдставлена безліччю векторів синаптичних ваг {Wj}, у вихідному просторі А реалізує хорошу апроксимацію вхідного простору Х. a) так b) немає

1) Особлива біологічна клітка, яка обробляє інформацію a) Нейрон b) Персептрон c) Нейтрон d) Немає правильної відповіді 2) Вказівка приналежності вхідного образу, представленого вектором ознак, одному або декільком заздалегідь певним класам a) Класифікація образів b) Реєстрація образів c) Кластеризація образів d) Немає правильної відповіді 3) Алгоритм ... заснований на подібності образів і розміщує близькі образи в один кластер. a) кластеризації b) класифікації c) реєстрації d) Немає правильної відповіді 4) Яка мережа включає дві парадигми, кожна з яких визначається формою вхідних даних і способом їх обробки? a) Мережа АРТ b) Мережа АТР c) Мережа РОТА d) Мережа ТАР 5)З чого полягає нейрон? a) Голова b) Сома c) Ноги d) Тіло 6) Хто висловив ідеї про характер з'єднань нейронів мозку і їх взаємодію і описав правила навчання нейронної мережі? a) Хебб b) Баєс c) Хемінг d) Розенблатт 7)Багаточисленні проблеми в математиці, статистиці, техніці, науці, медицині і економіці можуть розглядатися як проблеми ... a) Оптимізації b) Класифікація c) Реєстрація d) Кластеризація 8) Які мережі виконують псевдовипадкові зміни величин ваг, зберігаючи ті зміни, які ведуть до поліпшень? a) Стохастичні мережі b) Мережа зворотного розповсюдження c) Мережа прямого розповсюдження d) Мережа різностороннього розповсюдження 9) У якому віку сформувався термін «нейронні мережі»? a) XX b) XІX c) XXІ d) Немає правильної відповіді 10) Що впливає на величину імпульсів? a) Синапс b) Нейрон c) Протон d) Персептрон 11) Нейрон може передавати імпульс з допомогою ... a) Аксона b) Протона c) Персептрона d) Синапсу 12) Тіло нейрона включає - a) Ядро b) Голову c) Ноги d) Синапс 13) Підходом для створення нейромереж не є: a) апаратні; b) програмні; c) неадекватні. d) Немає правильної відповіді 14) Основна ідея принципу мінімізації емпіричної риски полягає у використанні функціонала емпіричної риски. a) так b) немає 15) Функціонал риски – це. a) вірогідність помилки класифікації b) помилка навчання c) вірогідність помилки розпізнавання d) немає правильної відповіді 16) Функціонал емпіричної риски – це a) вірогідність помилки класифікації b) помилка навчання c) вірогідність помилки розпізнавання d) немає правильної відповіді 17) частота зроблених машиною помилок протягом сеансу навчання для визначення вектора ваг a) помилкою навчання b) помилкою узагальнення c) помилкою освіти d) немає правильної відповіді 18) частота зроблених машиною помилок при її тестуванні на прикладах, що не зустрічалися раніше. a) помилкою навчання b) помилкою узагальнення c) помилкою освіти d) немає правильної відповіді 19)Множина з елементів Х називається. a) поняттям b) класом понять c) Терміном d) немає правильної відповіді 20) Будь-який набір підмножин середовища Х a) поняттям b) класом понять c) Терміном d) немає правильної відповіді 12)Поняття, для якого наводяться приклади, називається цільовим a) так b) немає 22) Цей параметр задає величину помилки, при якій апроксимація цільового поняття на гіпотезу зважає задовільною. a) Параметр довіри b) Параметр помилки c) Параметр відповіді d) немає правильної відповіді 23) Цей параметр задає ступінь правдоподібності при побудові "хорошої" апроксимації. a) Параметр довіри b) Параметр помилки c) Параметр відповіді d) немає правильної відповіді 24) У якому році було піднято питання про те, що в завданнях класифікації образів за допомогою великих нейронних мереж часто виявляється, що для успішного навчання мережа здатна обійтися меншою кількістю прикладів, чим кількість синаптичних ваг в ній. a) 1996 b) 1997 c) 1998 d) 1999 25) У якому році Маккаллок і Пітц року вперше представили ідею використання нейронних мереж як обчислювальні машини a) 1943 b) 1949 c) 1945 d) 1958 26) У якому році Хебб ввів перше правило самоорrанізованого навчання a) 1943 b) 1949 c) 1945 d) 1958 27) У якому році Розенблатт ввів поняття персептрова як першій моделі навчання з вчителем a) 1943 b) 1949 c) 1945 d) 1958 28) У початковій версії персептрона, по Розенблаттy містилися три типи елементів: a) сенсорні b) асоціативні c) реактивні d) повчальні 29) Функціональний блок, що є основним для наочної області обробки сигналів a) адаптивний фільтр b) звуковий фільтр c) перетворений фільтр d) немає правильної відповіді

Соседние файлы в предмете Интеллектуальный Анализ Данных