Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции и вопросы Интеллектуальные ИС (2010, акк....doc
Скачиваний:
49
Добавлен:
11.12.2018
Размер:
954.37 Кб
Скачать

Лекционные материалы по курсу

Раздел 1. Введение

1.1. Задачи и содержание дисциплины

Структура и содержание курса.

Взаимосвязь с другими дисциплинами, в том числе Представлением знаний в ИС и Алгоритмизацией ИС

Требования к обучающимся при изучении дисциплины.

Порядок выполнения лабораторных работ.

Порядок сдачи экзаменов.

1.2. Общее представление об интеллектуальных ИС. Задачи искусственного интеллекта (ИИ).

Вклад российских ученых в теорию ИИ

История и задачи ИИ. Искусственный интеллект – одна из новейших наук, появившихся в первой половине XX века на стыке вычислительной техники, математической логики и программирования. Ее появление есть результат:

    1. стремления расширить область применения вычислительной техники, переложив на нее часть функций, обычно свойственных человеческому мозгу: видеть, слышать, делать умозаключения, обучаться и т.д. (прагматическая цель);

    2. попыток превратить вычислительную машину в некое подобие разумного, самостоятельно мыслящего и действующего во внешнем мире существа, подобного человеку (утопическая цель)

Название ИИ возникло в конце 60-х гг. XX в, а в 1969 г. в Вашингтоне (США) состоялась первая Всемирная конференция по ИИ. Это направление сложилось постепенно, по мере того, как появившиеся тогда ЭВМ «научились» (т.е. для них были составлены соответствующие программы) справляться с традиционно логическими задачами: решать головоломки, играть в шахматы, писать «стихи» и «музыку» и т.д. В 40-е годы появилась и первая искусственная модель нейрона, который считался элементарной ячейкой человеческого мозга (У.Маккаллок, У.Питс, 1943 г.). Мощный толчок развитию ИИ придала амбициозная японская программа середины 80-гг создания ЭВМ 5-го поколения, главной отличительной чертой которой дожжен был стать мощный интеллектуальный интерфейс между машиной и человеком, позволяющий обмениваться информацией посредством речевых сигналов, обеспечивающий обработку звуковых и зрительных образов. Машина должна была видеть, слышать, говорить, думать подобно человеку и самообучаться. В полном объеме проблему планировалось решить к середине 90-х гг. На сегодня говорить о машинах 5-го поколения в том виде, как это заявлялось тогда, еще рано, однако очевидный прогресс в этом направлении имеется. Японская программа подстегнула развития данного направления и привела к его окончательному признанию

На сегодняшний день вырисовался основной комплекс проблем, которые стали относить к ИИ. Это:

  • распознавание образов и анализа сцен (разработка программных и технических средств, для автоматизированного распознавания речевых, визуальных и иных образов, создание «органов чувств» для ЭВМ);

  • представление знаний (разработка методов и приемов для формализации и последующего ввода в память ЭВМ интеллектуальной системы знаний из различных предметных областей, обобщение и классификация накопленных знаний, использование знаний для решения т.н. «плохоформализованных» задач);

  • моделирование рассуждений (изучение и формализация различных схем человеческих умозаключений, используемых в процессе решения разнообразных задач, создание эффективных программ, для реализации этих схем в вычислительных машинах);

  • обучение и самообучение систем;

  • интеллектуализированные информационно-поисковые системы;

  • моделирование творческих процессов.

Технически эти задачи в настоящее время решаются с использованием двух принципиально различных подходов:

    1. с использованием фон-неймановских ЭВМ, в которых информация храниться, обрабатывается и передается в форме (двоичных) чисел, а сам вычислительный процесс программируется человеком;

    2. с использованием нейронных сетей, работа которых состоит из возбуждения/торможения различных фрагментов сети (т.н. кластеров), что, в свою очередь, является следствием обучения сети на специально подобранных примерах.

Более подробно эти задачи и методы их решения разберем впоследствии.

Модели и методы теории распознавания образов. Теория распознавания образов – традиционная область ИИ, занимающаяся разработкой программных и технических средств, для автоматизированного распознавания речевых, визуальных и иных образов, разработки «естественных» интерфейсов между человеком и компьютером, создание средств ввода информации о внешнем мире непосредственно в компьютер, минуя этап кодирования ее человеком-оператором.

Практически любая система распознавания решает одну из двух задач:

  • задачу классификации;

  • задачу идентификации.

Задача классификации представляет собой задачу отнесения некоторого исследуемого объекта, описанного набором чисел, называемых признаками, к одному из уже известных т.н. «классов объектов». Например, требуется отнести механическое средство передвижения (исследуемый объект) к классу грузовых, легковых автомобилей или транспортных средств для перевозки пассажиров (автобусов, троллейбусов, трамваев). Если ЭВМ на основе соответствующих алгоритмов решает эту задачу, считается, что она решила задачу классификации.

Задача идентификации – это задача «узнавания» единичного объекта среди множества других. Так, мы узнаем свой собственный автомобиль или автомобиль наших знакомых среди множества других автомобилей, в т.ч.  относящихся к тому же самому классу.

Различие между классификацией и идентификацией заключается в том, что в первом случае мы ищем общее, а во втором – различное между объектами. Одна из традиционных задач классификации – разработка систем автоматизированного чтения. Здесь не важны индивидуальные особенности букв, а важно их отнесение, например, к классу букв «А», или «Б», или конкретного цифрового символа и т.д. С задачей идентификации мы сталкиваемся, когда, скажем, пытаемся разработать систему узнавания лица человека на портрете, анализа отпечатков пальцев в криминалистике и т.д.

Одним из популярных методов классификации является «обучение на примерах», когда распознающей системе предлагают серию образцов разнообразных предметов, относящихся к одному и тому же классу и на основе этого она формирует обобщенный образ предмета, который и характеризует класс. При этом исходят из гипотезы о «компактности» классов, т.е. предполагают, что сходные образцы должны иметь близкие между собой признаки. Чем выше степень близости между предметами одного класса и больше разница между образами различных классов – тем надежнее происходит распознавание. Трудность заключается в том, что порой граница между образами размыта и системе легко ошибиться отнеся объект одного класса к другому. Простейший пример – латинская буква «l» и цифра «1», или буква «О» и цифра «0». Система может давать сбои также, если она встретилась нетрадиционным, или как мы говорим, непривычным для нее начертанием символа. Человек также может допускать ошибки при классификации, однако достичь такого же качества распознавания, какое обеспечивает человеческий мозг, ЭВМ пока не в состоянии. Качество уже считается хорошим, если процент узнавания после обучения составляет 90-95%%.

Для идентификации более пригодны методы, выявляющие частные характеристики объектов, не дающие спутать их ни с какими другими

При описании объектов распознавания очень важно правильно выбрать систему признаков, обеспечивающих распознавание. Чем их меньше – тем лучше. При этом такая система должна быть «разрешающей» - т.е. обеспечивать уверенное разделение образов различных классов при классификации, или выделение образов искомых объектов при идентификации.

Основная проблема теории распознавания – выбор подходящего алгоритма. В задачах классификации для их разработки главным образом используются следующие группы методов:

  • статистические (вероятностные) методы (они естественны, например, для задач классификации в силу статистической природы образов классов);

  • корреляционно-экстремальные методы; они близки к статистическим методам, но имеют некоторые особенности, позволяющие выделить их в отдельную группу методов; широко применяются для задач автоматизированной навигации, распознавания звуковых образов; опираются на вычисление т.н. корреляции между образами объектов или классов объектов и конкретным объектом;

  • лингвистические (структурные) и близкие к ним топологические методы, опирающиеся на анализ структурных (или топологических) особенностей распознаваемых объектов (структуру и топологию имеют буквы, папиллярные линии, дефекты механических конструкций, бактерии и т.д.), они могут применяться как для классификации, так и для идентификации

  • экспертные методы и близкие к ним граф-методы, опирающиеся на определенные правила распознавания объекта по принципу «если… то…», например «если живое живородящее и кормит детенышей молоком, то это млекопитающее», «если животное млекопитающее и живет только в воде – то это китообразное», и т.д.; данные методы также применяются как для классификации, так и для идентификации, причем их качество напрямую зависит от достоверности используемых правил;

  • нейросетевые технологии, являющиеся также методами обучения на примерах; они напоминают статистические по характеру «настройки», но опираются на совершенно иные принципы работы.

Очень важно при разработке алгоритмов предусмотреть «все возможные варианты» комбинаций признаков. При этом молчаливо предполагается, что все распознаваемые объекты будут принадлежать к заранее определенному универсуму объектов, т.е. некоему интересующему нас множеству: букв, животных, бактерий, технических устройств и т.д. Данное требование выглядит естественным ибо «нельзя объять необъятное» и предусмотреть все возможные и существующие в мире объекты, однако человеческий мозг до сих пор гораздо более гибок при работе с «незнакомой» ситуацией и любые из современных алгоритмов уступают ему в этом.

Представление знаний и моделирование рассуждений. Еще один важный раздел теории ИИ. Возник в результате попыток решить проблему автоматизированного доказательства теорем и привлечения ЭВМ к решению задач, требующих выполнения некоторых умозаключений. Типичное приложение – экспертные системы – программные и программно-аппаратные средства, предназначенные для аккумулирования знаний людей-экспертов, специалистов в соответствующих предметных областях, с целью консультирования и обучения специалистов более низкого уровня.

Считается, что любое знание есть система фактов с установленными между ними взаимосвязями в виде причинно-следственных связей, отношений часть-целое, потомок-родитель и т.д. Знания обычно подразделяют на процедурные и декларативные. Процедурные знания – это знания что и как следует делать в той или иной ситуации. Данные знания тесно связаны с понятием алгоритма. Все остальные знания, вроде знаний-фактов и знаний-отношений между фактами и т.д. принято относить к декларативным.

На сегодня существует два основных подхода к представлению знаний, считающихся эквивалентными:

  • логический;

  • сетевой.

Подробно мы о них поговорим впоследствии, сейчас же отметим только, что логический подход основан на описании знаний в рамках некоторого логического исчисления, как правило исчисления высказываний или исчисление предикатов первого порядка. Все знания о предметной области в такой системе описываются в виде формул этого исчисления, дополненных т.н. правилами вывода (правил получения одних формул из других – т.н. аксиом, или из формул, полученных ранее). Наиболее широкое распространение в этом классе моделей получил продукционный подход, когда знания записываются в виде продукций. Продукции  это суждения типа «Если…, то…». Например, «Если идет снег и зима, то тепло», «Если идет снег и лето, то холодно», «Если холодно, то нужно тепло одеться». В логике продукции называются отношениями импликации. Они как правило выражают причинно-следственную связь между фактами, явлениями, действиями. Рассуждение системы состоит в переходе от продукции к продукции по цепочке так, что условие следующей продукции есть заключение предыдущей. Заключением может быть и выполнение или рекомендация к выполнению некоторого действия.

В основе сетевых моделей лежит идея о том, что любые знания можно представить в виде фактов, понятий и отношений между ними. Сети можно изображать графически, что делает представленные в ней знания наглядными. Конечно, если база знаний (БЗ) достаточно велика, то графическое изображение может оказаться громоздким и сложным для восприятия, но определенные ее фрагменты, поясняющие, например, ход рассуждения, вполне доступны.

Наиболее популярны среди сетевых т.н. фреймовые модели. Фрейм – это минимально возможное описание сущности моделируемого явления, события , ситуации, процесса или объекта (термин «минимально возможное» означает, что при дальнейшем упрощении описания оно перестает описывать ту единицу знаний, для которых оно предназначено). Фрейм состоит из т.н. слотов, которые имеют название и значение. Слоты могут заполняться как конкретной информацией, характеризующей тот или иной объект, так и именами других фреймов, формируя таким образом сеть связей между понятиями и представителями этих понятий (событиями, фактами, действиями).

Рассуждение в сетевых моделях состоит из переходов от узла к узлу (выражающим факты, понятия, действия) по дугам, отражающим отношения между узлами. Например, перемещаясь по фрагменту сети ABC, где буква обозначает конкретного человека, а стрелка – отношение родства, мы делаем вывод, что A родственник C.

Все методы обработки знаний опираются на ту или иную логику. На сегодня разработано огромное количество разнообразных логик. Это и классическое (булевское) исчисление высказываний, и исчисление предикатов, разнообразные неклассические логики, пространственные и временные логики, нечеткие логики и т.д. Подробнее мы их разберем впоследствии.

Моделирование творческих процессов. На примере музыки. Задачи:

  1. синтез звуков

  2. анализ нотных текстов

  3. синтез нотного текста

  4. создание специальных языков программирования

  5. формирование банков музыкальных данных, тиражирование нотных партитур

Три метода синтеза музыки:

  1. Шеннон (1950). Нотный текст модулируется в виде стационарной последовательности нот, в которой вероятность появления ноты зависит от нескольких предшествующих ей нот. Недостаток: в мелодии все ноты взаимосвязаны и взаимосвязи могут меняться, синтезируемая последовательность нот не зависит от ритма. Синтезируются одноголосные музыкальные композиции.

  2. Структурный метод. Программирование правил композиции, которые удалось либо выявить, анализируя произведения композиторов, либо предложить «умозрительно». синтезируется музыка одноголосная, многоголосная, тональная и атональная. Выбор текущей ноты зависит от многих параметров: от предшествующей мелодической или ритмической фигуры, от метра – положения ноты на сильной или слабой доле текста, ладогармонических функций текущего такта и т.д.

  3. Метод заготовок. ЭВМ создает варианты музыкальных сочинений (звуковысотных сочетаний, аккордов, тембров, ритмических фигур и т.д.). Человек отбирает то, что ему необходимо.

Первые два метода используются только для машинного моделирования музыки и при проведении исследовательских работ. Третий метод используют и профессиональные композиторы

Сегодня созданы разнообразные синтезаторы звуков – музыкальные компьютеры, которые помогают композиторам при создании профессиональной музыки, хотя порой это требует дополнительного времени для освоения техники. Подобные устройства можно подключать к музыкальным инструментам, автоматически вводя в ЭВМ мелодию и записывая ее в нотных знаках. С их помощью можно создавать варианты звукокомплексов (аккордов, тембров и т.п.) и делать выборки из большого числа вариантов и т.п.

Вклад российских ученых в теорию ИИ. Вклад российской науки в теорию ИИ связывают в первую очередь с трудами Льва Семеновича Выгодского (1896-1934), заложившего основы психолингвистики и когнитивной психологии, Михаила Львовича Цетлина (1924-1966), открывшего новое направление – коллективное поведение автоматов, во многом определяющее перспективные пути развития ИИ, Марка Ароновича Айзермана (1913-1992), одним из первых организовавшего в нашей стране исследования распознаванию образов, теории автоматов, теории выбора, Александр Романович Лурия (1902-1977) – создателя нейропсихологии, долгие годы занимавшегося изучением глубинных механизмов, связанных с познавательными процессами, Рудольфа Хафизовича Зарипова (1929-1991), написашего в 1960 г. статью «Об алгоритмическом описании процесса сочинения музыки» и долгие годы занимавшегося психологией и «алгоритмизацией» творчества, Сергей Юрьевич Маслов, занимавшегося проблемой автоматизации доказательств и создавшего обратный метод доказательств (от желаемого результата к исходным посылкам), много сил посвятившего разработке нестрогих, т.н. правдоподобных доказательств, используемых на практике людьми, Михаил Моисеевич Бонгард (1924-1971), одним из первых начавшего применять ЭВМ для задач узнавания. Заложенные им принципы в наши дни стали столь распространенными, что без них невозможно представить ни одну систему обучения на примерах и систему распознавания образов, Вениамина Ноевича Пушкина (1931-1979) – одного из создателей т.н. ситуационного управления.

Из более современных нам ученых следует упомянуть Дмитрия Александровича Поспелова (интеллектное управление, экспертные системы), Юрия Ивановича Журавлева (теория распознавания образов), д.т.н., профессора Александра Николаевича Горбаня (теория нейронных сетей), Татьяну Альбертовну Гаврилову (представление знаний).