Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ri2014_materials

.pdf
Скачиваний:
74
Добавлен:
13.02.2015
Размер:
7.47 Mб
Скачать

550

РЕГИОНАЛЬНАЯ ИНФОРМАТИКА – 2014

 

 

РАСПРЕДЕЛЕННЫЕ ИНФОРМАЦИОННО-ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ, ГРИД-ТЕХНОЛОГИИ

Глазунов Д.Ю., Яковлев С.А.

Россия, Санкт-Петербург, Санкт-Петербургский государственный университет аэрокосмического приборостроения, Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)

ОПЫТ ИСПЛЬЗОВАНИЯ МНОГОАГЕНТНЫХ СИСТЕМ

Во вводной части доклада отмечается, что развитие методов искусственного интеллекта позволило сделать новый шаг к изменению стиля взаимодействия пользователя с компьютером. Возникла идея создания так называемых "автономных агентов", которые породили уже новый стиль взаимодействия пользователя с программой.

Вместо взаимодействия, инициируемого пользователем путем команд и прямых манипуляций, пользователь вовлекается в совместный процесс решения. При этом, как пользователь, так и компьютерный посредник, оба принимают участие в запуске задачи, управлении событиями и решении задачи.

Исследования и экспериментальные программные разработки довольно быстро показали, что множество задач, в которых агент с большой пользой может ассистировать пользователю, практически неограниченно: отбор информации, просмотр информации, поиск в Internet, управление электронной почтой, календарное планирование встреч, выбор книг, кино, музыки и т.д.

Разработки в этой области поддерживались и поддерживаются такими известными фирмами, как Apple, Hewlett Packard, Digital, японскими фирмами. Метафора "персонального ассистента" была заменена метафорой "интеллектуального посредника", или, как стали чаще говорить на русском языке - "интеллектуального агента").

Структура исследований в области многоагентных систем в настоящее время очень широка и сравнима с широтой исследований в области искусственного интеллекта. Это не случайно, поскольку обусловлено именно интегрированностью самого понятия такой системы, сложностью архитектуры и многообразием компонент каждого отдельного агента, многообразием математических и программных средств, используемых при его описании и разработке, сложностью структуры и разнообразием вариантов взаимодействия агентов между собой, сложностью и разнообразием компонент внешней среды, в которой функционируют агенты и т.д.

Грубая классификация архитектур агентов основывается на парадигме, лежащей в основе принятой архитектуры. На самом деле к настоящему времени среди разработанных архитектур не существует таких, о которых можно было бы определенно сказать, что она является чисто поведенческой или основана только на знаниях.

Только самые простые приложения агентов могут быть реализованы по одноуровневой схеме. Как правило, функциональные модули агента структурируются в несколько уровней, однако по различным принципам. Как правило, уровни представляют различные функциональности, такие, как восприятие внешних событий и простые реакции на них; поведение, управляемое целями; координация поведения с другими агентами; обновление внутреннего состояния агента, т.е. убеждений о внешнем мире; прогнозирование состояний внешнего мира; определение своих действий на очередном шаге и др.

Сразу заметим, что в настоящее время не существует языка программирования, который в полной мере отвечал бы потребностям технологии многоагентных систем.

Разрабатываемые в настоящее время агентские системы используют большой спектр различных базовых языков, но, к сожалению, ни один из них не может рассматриваться как истинно “агентно-ориентированный“.

Имеются попытки расширить существующие языки, а также попытки использовать традиционные языки программирования. Существует ряд проектов по разработке новых специализированных агентских языков.

Работы в области многоагентных систем, в особенности разработка приложений, требуют привлечение знаний и технологий из ряда областей, которые ранее были вне поля зрения специалистов по искусственному интеллекту.

Прежде всего это относится параллельным вычислениям, технологии открытой распределенной обработки, обеспечения безопасности и мобильности агентов.

http://spoisu.ru

РАСПРЕДЕЛЕННЫЕ ИНФОРМАЦИОННО-ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ, ГРИД-ТЕХНОЛОГИИ

551

 

 

Егоров А.Н., Кузнецов В.А., Назаргулов И.А.

Россия, Санкт-Петербург, Государственный университет морского и речного флота имени адмирала С.О. Макарова ПРОГРАММНАЯ ОБОЛОЧКА РАСПАРАЛЛЕЛИВАНИЯ ДЛЯ ВОСТАНОВЛЕНИЯ ДОСТУПА

КДАННЫМ

Вусловиях функционирования корпоративных сетей, в которых для передачи данных, как правило, используются защищенные каналы, предполагающие их передачу в зашифрованном виде, возникают сбои, связанные с потерей или искажением секретных ключей. В этой ситуации актуальной становится задача автоматизации восстановления этих ключей с целью обеспечения доступа к зашифрованным данным, что позволит в значительной степени снизить уровень влияния человека на восстановление работоспособности системы.

Одним из возможных методов решения этой задачи является перебор возможных ключей. Метод, с одной стороны, надёжен, поскольку его использование всегда гарантирует получение результата, но с другой стороны, требует больших временных затрат, в связи с выполнением огромного количества однородных операций. Для снятия указанной проблемы при автоматическом восстановлении секретного ключа воспользуемся механизмом распараллеливания вычислительного процесса, который реализован в виде программной оболочки распараллеливания (ПОР).

Программная реализация оболочки предназначена для распараллеливания процесса вычислений в прикладных решениях, используя для этих целей центральный процессор и графическую видеокарту, которая поддерживает технологию CUDA компании NVIDIA. CUDA – это платформа параллельных вычислений и модель программирования, позволяющая существенно увеличить вычислительную производительность за счёт максимально эффективного использования ресурсов видеокарты (графических процессоров и памяти) компании NVIDIA.

Поддержка прикладных решений реализуется в виде dll библиотек, разработанных для каждого устройства с которыми работает ПОР. Каждая библиотека должна реализовать ряд интерфейсов необходимых для взаимодействия с программной оболочкой.

ПОР представляет собой совокупность взаимодействующих модулей. Связующим звеном этих модулей является ядро программной оболочки (ЯПО). При старте программы происходит сбор информации (количество ядер процессоров, объем памяти, частота, наименование) об имеющихся на компьютере устройствах работу с которыми поддерживает ПОР. На её основе создаются модули устройств (МУ), отвечающие за взаимодействие с одной вычислительной единицей. Вычислительная единица может представлять собой ядро центрального процессора или графическую видеокарту. Интерфейс ПОР имеет ряд визуальных инструментов настройки использования вычислительных единиц позволяющих, при необходимости, включать и отключать их из процесса вычисления.

Для инициализации задачи используется конфигурационный файл, содержащий информацию о типе задачи и параметры необходимые для взаимодействия с ПОР. После считывания файла происходит поиск соответствующих библиотек для решения полученной задачи, одной из которой может быть восстановление доступа к данным. Если такие библиотеки присутствуют, задача помещается в очередь. В процессе решения пользовательской задачи (ПЗ) осуществляется два этапа распараллеливания. На первом этапе при распределении нагрузки между аппаратными средствами ЯПО разделяет ПЗ на подзадачи. Далее подзадачи передаются соответствующим МУ. Для большей производительности МУ на основе алгоритма реализованного в dll библиотеке может дополнительно распараллеливать вычислительный процесс решения подзадачи, используя особенности аппаратного средства.

Врамках проблемы восстановления доступа к данным были созданы библиотеки для восстановления секретного ключа алгоритма шифрования DES. Механизм распараллеливания алгоритма реализован по технологии bitslice. При реализации библиотек для отладки параллельных алгоритмов использовался NVIDIA Nsight позволяющий оптимизировать производительность вычислений, как для центрального, так и для графических процессоров.

Разработанный подход решения ПЗ в интегрированной программной среде оболочки распараллеливания можно считать универсальным. Это означает, что практически любую задачу пользователя, требующую для повышения производительности использования распараллеливания вычислений, можно решить в этой программной среде, реализовав необходимые библиотеки. ПОР является автоматизированной программной системой, которая использует весь потенциал подключенных к компьютеру вычислительных устройств, допускающих распараллеливание.

Программный код оболочки, включая библиотеки, написан на языке C++. В качестве сред разработки использовались RAD Studio XE и VisualStudio 2010.

http://spoisu.ru

552

РЕГИОНАЛЬНАЯ ИНФОРМАТИКА – 2014

 

 

Зегжда П.Д., Калинин М.О.

Россия, Санкт-Петербург, Санкт-Петербургский государственный политехнический университет РАЗРАБОТКА ТЕХНОЛОГИИ ЗАЩИЩЕННОГО ДОСТУПА НА ОСНОВЕ

ВЫСОКОПРОИЗВОДИТЕЛЬНОЙ ПАРАЛЛЕЛЬНОЙ ОБРАБОТКИ СЕТЕВОГО ТРАФИКА В ВИРТУАЛИЗИРОВАННОЙ ВЫЧИСЛИТЕЛЬНОЙ СРЕДЕ

При финансовой поддержке Министерства образования и науки Российской Федерации в рамках ФЦП «Исследования и разработки по приоритетным направлениям развития научнотехнологического комплекса России на 2007-2013 годы» (Соглашение о предоставлении субсидии №

14.575.21.0079/083508401 от 17 июня 2014 г.)

Современные системы предоставления электронных услуг (например, веб-сервисы потокового медиавещания, сервисы доступа к архивам мультимедийной информации, центры обработки и хранения оцифрованных данных и т.п.) представляют собой сложные информационнотелекоммуникационные системы (ИТКС), которые работают под высокой нагрузкой, обрабатывают большие объемы трафика и множество соединений. При этом доступ к информации и мультимедиа осуществляется по открытым каналам сети Интернет, а с ростом распространенности вредоносного программного обеспечения и уровня киберпреступности вопрос обеспечения защиты сервисов доступа к современным цифровым услугам является основополагающим для таких систем ввиду ценности и важности сохраняемых, обрабатываемых и передаваемых данных.

Для обеспечения конфиденциальности и целостности информации в ИТКС, обеспечивающих широкополосный доступ к мультимедиа и массовым цифровым услугам, очевидным решением является использование методов и средств защиты информации, которые обеспечивают безопасность передаваемых данных и аутентификацию субъектов доступа. Современные решения основаны на использовании аппаратных обработчиков трафика. Для программных и программноаппаратных платформ по-прежнему нерешенными остаются две основные проблемы:

1.Проблема низкой производительности. Использование средств защиты существенно влияет на производительность и, соответственно, на пропускную способность сетевой подсистемы ИТКС, в которой обеспечивается широкополосный доступ к мультимедийным услугам.

2.Проблема адаптации целевой системы. Использование средств защиты трафика приводит к необходимости адаптации состава, взаимосвязей компонентов и архитектуры самой системы предоставления доступа к мультимедийным услугам.

Обеспечение производительности системы доступа к мультимедийным услугам является жизненно необходимым эксплуатационным требованием, предъявляемым к современным широкополосным средам и системам, ввиду роста числа одновременных запросов на обслуживания и больших объемов передаваемых данных (например, снимков высокого разрешения, видеоматериалов высокого качества и т.п.). В перспективе такие системы должны быть способны обрабатывать десятки миллионов запросов, поэтому вопросы быстродействия необходимо учитывать уже на этапе проектирования. Особую сложность при реализации данного требования вызывает необходимость обеспечения производительности при обработке поступающих запросов в совокупности с быстродействием подсистемы защиты.

При этом актуальна проблема одновременного обеспечения защиты данных при одновременном выполнении требований высокой производительности.

Защита передаваемых мультимедийных данных заключается в обеспечении безопасности информации, которая передается по открытым телекоммуникационным каналам из системы предоставления цифровых услуг к потребителям и загружается в систему, поступая от источников информации. Как правило, под данным требованием подразумевается кодирование передаваемых файлов, например, копий фотоданных, видеоданных, текстовой информации большого объема для большого количества потребителей информации. Защита каналов передачи данных заключается в необходимости обеспечения защищенности пакетов сетевого трафика. Данное требование выполняется с помощью потокового кодирования передаваемых через сеть Интернет IP-пакетов. Для решения данной задачи в настоящее время широко применяется технология SSL, основанная на предоставлении доступа к мультимедиа-хранилищам по защищенному протоколу HTTPS. С помощью данной технологии осуществляется аутентификация клиентов, а также защита канала передаваемой информации с помощью различных алгоритмов кодирования. В сравнении с типовым сценарием работы открытого сервера внедрение технологии SSL приводит к появлению дополнительных этапов обработки пользовательских запросов. При этом наблюдается не только ухудшение показателей, но и изменение собственно динамики работы сервера (падение пропускной способности сервера в 4-5 раз).

Помимо этого, вместо практически монотонной априорно предсказуемой работы при обработке HTTPS-трафика наблюдается скачкообразное поведение сервера, что в конечном итоге неблагоприятно сказывается на показателях отзывчивости (отклика) сервисов широкополосного доступа к мультимедийным услугам (замедление ответной реакции сервера в 8-10 раз).

http://spoisu.ru

РАСПРЕДЕЛЕННЫЕ ИНФОРМАЦИОННО-ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ, ГРИД-ТЕХНОЛОГИИ

553

 

 

Операции кодирования данных являются достаточно ресурсоемкими и часто потребляют гораздо больше ресурсов, чем собственно обработка пользовательских запросов на доступ к цифровым услугам. Это приводит к тому, что большую часть времени серверы системы предоставления мультимедиа-услуг заняты кодирование и декодированием данных, вычислением хеш-функций и выполнением других функций обработки трафика. Кроме того, при внедрении средств защиты вводятся дополнительные проверки, например, аутентифицирован ли пользователь, имеет ли он права доступа и т.п. Это приводит к тому, что программистам-разработчикам необходимо переконструировать исходный код системы. А в том случае, если требования изменяются или появляются новые, то данные действия необходимо будет повторять заново. Таким образом, проблема адаптации целевой системы представляет также актуальную проблему организации эффективного доступа к мультимедийным услугам, т.к. для надежной и долгосрочной работы системы необходимо поддерживать определенный уровень гибкости и простоты архитектуры.

Ввиду отсутствия высокопроизводительных потоковых средств защиты информации как на отечественном, так и на зарубежном рынке, для решения проблем снижения производительности и обеспечения адаптации систем в докладе предлагается принципиально новый подход, который заключается в выделении средств защиты доступа к широкополосным мультимедийным услугам в изолированные сервера с поддержкой автоматической балансировки нагрузки, обеспечив при этом эффективность обработки сетевого трафика за счет реализации принципа разделения трафика на потоки, обрабатываемые в создаваемой виртуальной среде, включающей пул виртуальных машин, мощности которых динамически перераспределяются в зависимости от изменений сетевой нагрузки.

Предлагаемые методы основаны на классификации входных сетевых потоков и на реализации принципа балансировки нагрузки на физическом сервере за счет внедрения технологии виртуализации. Подход основан на интеллектуальной обработке входного трафика: сетевые потоки попадают на входной балансировщик нагрузки, который классифицирует потоки и распределяет трафик на кластер виртуальных вычислительных машин. Машины кластера предоставляют среду исполнения для средств защиты информации. Экземпляры средств виртуальных машин идентичны, что позволяет в случае выхода из строя одного сервера перераспределять сетевые потоки на другие серверы «прозрачно» для клиента за счет использования механизма динамической миграции виртуальных машин, без дополнительных затрат на перенос контекста. В каждой машине кластера потоки трафика распределяются по процессорным ядрам, что способствует повышению производительности за счет одновременного запуска нескольких копий вычислительных процессов по обработке сетевого трафика. После обработки на процессорных ядрах трафик собирается на выходной балансировщик, который осуществляет сбор потоков трафика и отправляет системе предоставления электронных услуг уже кодированные обработанные данные.

Разрабатываемый подход обеспечит такие преимущества, как:

сведение функций безопасности в отдельный компонент, что позволит избежать необходимой адаптации системы, т.к. все функции безопасности выполняются на отдельном кластере серверов;

распараллеливание вычислений, что позволит повысить эффективность обработки сетевого

трафика;

балансировка нагрузки в системе;

сокращение расходов на обслуживание ввиду упрощения всей информационной системы за счет использования кластера виртуальных машин.

Калинин М.О., Коноплев А.С., Минин А.А., Резединова Е.Ю.

Россия, Санкт-Петербург, Санкт-Петербургский государственный политехнический университет О ПРОБЛЕМЕ ЗАЩИТЫ ИНФОРМАЦИОННЫХ И ВЫЧИСЛИТЕЛЬНЫХ РЕСУРСОВ В

РАСПРЕДЕЛЕННЫХ ВЫЧИСЛИТЕЛЬНЫХ СЕТЯХ ТИПА "ГРИД"

При финансовой поддержке Министерства образования и науки Российской Федерации в рамках государственного задания образовательным организациям высшего образования, подведомственным Минобрнауки России, в сфере научной деятельности на выполнение научноисследовательской работы в рамках проектной части государственного задания (Задание №

2.1778.2014/К от 28.05.2014)

Современные грид-системы строятся на базе программного обеспечения, предназначенного для объединения распределенных ресурсов в рамках единой виртуальной организации. Проблемы, возникающие при проектировании, разработке и внедрении подобных систем, связаны с необходимостью обеспечения противодействия компьютерным атакам на вычислительные и информационные ресурсы грид-систем. Особые свойства грид-систем (гетерогенность, перераспределение ресурсов, высокая динамика состояний, децентрализованность управления и пр.)

http://spoisu.ru

554

РЕГИОНАЛЬНАЯ ИНФОРМАТИКА – 2014

 

 

создают благоприятные условия для осуществления на них таких вредоносных воздействий как атаки отказа в обслуживании, распространение вредоносного ПО, несанкционированный доступ к ресурсам.

Безопасность грид-систем обеспечивается на уровне отдельных ресурсов, т.е. локально, при использовании различных средств защиты информации: межсетевых экранов, систем обнаружения атак, антивирусных средств, а также средств администрирования. Встроенные механизмы обеспечения информационной безопасности грид-систем, предоставляемые инфраструктурой Grid Security Infrastructure (GSI), реализуют функции авторизации и аутентификации, обмена цифровыми сертификатами, целостности передаваемых данных, а также выполняют мониторинг доступности ресурсов грид-систем. Интеграция компонентов грид-систем и включение новых ресурсов в существующую распределенную вычислительную систему требуют обеспечения безопасности ее функционирования на системном уровне. Поскольку вычислительной платформой для решения пользовательских задач в грид-системе являются связанные компьютеры, а не сервера (как это реализовано в кластерных системах и системах облачных вычислений), важной задачей обеспечения защиты данных пользователей грид-систем от атак несанкционированного доступа является изоляция указанных данных от воздействия факторов хостовой среды.

Одним из наиболее важных аспектов обеспечения информационной безопасности гридсистем является мониторинг действий пользователей при работе с удаленными ресурсами гридсистемы, поскольку более 70% нарушений безопасности происходит вследствие атак со стороны внутренних нарушителей. Методы выявления аномальной деятельности пользователей и определения доступности ресурсов в грид-системах не учитывают функциональные особенности вычислительной системы и ее компонентов (грид-сервисов), необходимость обучения систем выявления аномалий, построенных на основе предлагаемых методов, и характеризуются большим числом ложных срабатываний ввиду высокой гетерогенности грид-систем. Альтернативным путем решения проблемы превышения пользователями грид-систем своих полномочий является внедрение в систему средств верификации политик информационной безопасности. В настоящее время в составе современных программных реализаций грид-систем (Globus Toolkit, UNICORE, gLite, Gridbus и др.) отсутствуют механизмы безопасности, позволяющие эффективно разграничить права доступа пользователей грид-систем к информационным и вычислительным ресурсам грид-систем. Существующие сервисы авторизации (такие как GRAM), в частности, не решают проблему эскалации привилегий за счет исполнения приложений в хостовой среде, предоставляющей удаленный доступ для хранения данных пользователей грид-системы.

Авторами в докладе предлагается использовать модельное представление механизмов защиты грид-систем с использованием сетей Петри, описывающее распределение запросов пользователей и позволяющее верифицировать требования политик информационной безопасности. Основанный на данном подходе метод верификации политик информационной безопасности заключается в том, что к каждому состоянию грид-системы применяется формализованная функция проверки для определения факта выполнения требований политики информационной безопасности. Верификация безопасности выполняется путем сопоставления требований политики информационной безопасности и текущего состояния системы с учетом предустановленных отношений доступа на узлах грид-системы.

Колодин М.Ю.

Россия, Санкт-Петербург, Санкт-Петербургский институт информатики и автоматизации РАН ОПТИМИЗАЦИЯ ПРОГРАММНЫХ КОНФИГУРАЦИЙ НА ОСНОВЕ СИСТЕМ ЛЁГКОЙ ВИРТУАЛИЗАЦИИ

Для выполнения анализа работы некоторой программной системы и оптимизации её параметров традиционно используются ряд способов: непосредственный запуск системы с известным набором параметров и последующий анализ её работы; программное моделирование системы; запуск её в рамках системы управления виртуальными машинами; каждый из способов имеет свои достоинства и недостатки. В первом случае велика цена ошибки в любой из составляющих процесса; во втором случае имеются большие затраты на создание системы моделирования, кроме того, она вносит существенные искажения в процесс; в третьем случае система работает в окружении, близком к реальному, но высока нагрузка на базовую систему; во всех случаях трудно запустить одновременно большое количество экземпляров исследуемых систем для изучения их совместной работы в условиях высоких нагрузок.

Хорошим компромиссом может стать применение систем лёгкой виртуализации на основе контейнеров Linux (LXC) и особенно технологии docker. В ней накладные расходы на создание и запуск виртуальных машин крайне низки, а изучаемая система работает в условиях, максимально близких к реальным. Есть и средства автоматизации работы с контейнерами и управления сборками программных конфигураций.

Таким образом, в целом подход состоит в следующем. Нужно выполнить первичное конфигурирование системы, сформировать её выполняемый образ. Затем его можно многократно

http://spoisu.ru

РАСПРЕДЕЛЕННЫЕ ИНФОРМАЦИОННО-ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ, ГРИД-ТЕХНОЛОГИИ

555

 

 

выполнять с различными наборами параметров, изучать правильность работы, потребление ресурсов, выполнять перенастройку параметров, находить места, подлежащие оптимизации. Можно и заранее рассчитывать требуемые наборы параметров, формировать образы систем на их основе и выполнять необходимые тесты. Интересным, но ресурсоёмким является подход с «матричной» генерацией наборов систем и их параллельным или последовательным выполнением. В отличие от классических систем виртуализации (VMWare, VirtualBox и подобных) в данном случае можно запускать десятки и сотни экземпляров систем на обычном оборудовании. Исходным ограничением является только использование систем и программ на основе ОС Linux; однако уже есть успешные реализации на ОС MS Windows и иных.

Здесь важна минимизация накладных затрат на моделирование и общее приближение выполнения задачи к реальному режиму работы. В то же время нам нужно уметь взаимодействовать с запущенными программами во всех параллельно работающих виртуальных машинах, управлять ими, оперативно снимать данных об их работе, в т.ч. о загруженности процессора, потреблении оперативной памяти и дискового пространства, для веб-серверов и серверов баз данных – о числе успешных обращений в секунду.

Вся подобная информация пишется в файлы протоколов, причём для снижения воздействия на исследуемые системы по мере возможности снимаемая информация хранится в оперативной памяти или пересылается по быстрой локальной сети на обрабатывающий сервер. Результаты оперативно показывается экспериментатору на экране веб-браузера, для чего как в управляющей системе, так и иногда в подчинённых запущены простые веб-сервера. Большая часть взаимодействия между машинами проходит по протоколу ssh. Основная часть анализа результатов выполняется после эксперимента.

Классическая оптимизация состоит в данном случае в подборе в некотором смысле наилучших наборов параметров. Метаоптимизация включает также модификацию структуры системы: обе системы, тестирующую и тестируемую, можно рассматривать как многоуровневые, и тогда можно в соответствии с процессом моделирования, его результатами изменять конфигурацию тестирующей системы, а не только тестируемой.

Изучались различные языки программирования (python, julia, c++, go, factor) и пакеты для управления виртуализацией и автоматизацией сборок. Для работы со многими параллельно или последовательно работающими наборами виртуальных машин используются настройки и данные в общей памяти (файлах на реальной машине), что даёт равные условия для отдельных машин; вообще для чистоты эксперимента нужно максимально исключить взаимное влияние подсистем друг на друга. Причина проста: нужны не просто быстрые инструменты моделирования и получения оценок, а более быстрые по сравнению с прочими подсистемами, участвующими в процессе.

Для оценки конфигураций выполнялось нагрузочное тестирование, напр., посредством пакета ab (apache benchmark), со сбором большого количества данных и их анализом.

Полученные результаты интересны и могут быть практически применены в несложных (по наборам параметров) системах; но требуется получать более наглядную обработку собираемых данных (диаграммы в дополнение к таблицам), для согласования подсистем пользоваться базами данных с хранением данных в оперативной памяти, очередями сообщений типа ZMQ, а результаты передавать по быстрой локальной сети на другой сервер, на котором и смотреть оперативные отчёты; в этом направлении и будет выполняться дальнейшее исследование.

Копыльцов А.А.

Россия, Санкт-Петербург, Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)

ОСОБЕННОСТИ ОБРАБОТКИ СЛАБО ФОРМАЛИЗОВАННОЙ ИНФОРМАЦИИ

В настоящее время в связи с развитием техники и средств связи используется большое количество технических систем, с которых осуществляется сбор разнообразной информации с помощью различных датчиков. Информация, поступающая от технических систем, весьма разнообразна и слабо формализованная. Обработка такой информации, с целью подготовки принятия решений, осуществляется различными способами. Каждый из подходов имеет свои преимущества и недостатки. Однако, системы, которые позволяли бы это делать удовлетворительно, до сих пор не созданы. Сложность решения этой проблемы состоит в том, что объем слабо формализованной информации, поступающей от технических систем, с одной стороны, существенно возрастает, а с другой стороны, промежуток времени, за который нужно принимать правильное решение, резко сокращается. Обзор интеллектуальных технологий и вычислений показал, что методы обработки слабо формализованной информации интенсивно развиваются и наибольшего развития в последнее время получили эволюционные алгоритмы и различные их комбинации с нейронными, нечеткими, сетевыми и другими структурами, т.е. наибольшее развитие получили подходы, в основу которых положены механизмы, заимствованные из живой природы. Поэтому для решения проблемы обработки слабо формализованной информации, поступающей от технических систем, предлагается

http://spoisu.ru

556

РЕГИОНАЛЬНАЯ ИНФОРМАТИКА – 2014

 

 

подход, в основу которого положены следующие недавно открытые способы хранения и обработки информации в живом организме:

1.Информация о каком-либо объекте в видео-, аудио- и других диапазонах хранится и обрабатывается не в разных структурах мозга, а в одной и той же части, причем с течением времени количество задействованных нейронов и связей между ними увеличивается.

2.Генерация новых знаний в мозге осуществляется путем сравнения вновь поступившей информации не со всей информацией, хранящейся в памяти, а только с определенным образом обработанной информацией, что позволяет существенно увеличить скорость обработки информации.

3.Обработка информации в мозге осуществляется с учетом приоритетов и повторяемости, что позволяет сократить объем хранящейся в памяти информации необходимой для принятия решений и увеличить скорость ее обработки.

Исходя из этих способов хранения и обработки информации в живом организме, предлагается подход для обработки слабо формализованной информации, поступающей от технических систем, на основе моделей обработки слабо формализованной информации при недостаточном ее количестве и алгоритмов обработки и оценивания характеристик поступающей слабо формализованной информации. Используя такой подход можно:

1.Эффективно хранить слабо формализованную информацию, путем хранения не всей информации, а только результатов ее специальной обработки;

2.Эффективно осуществлять обработку большого объема поступающей слабо формализованной информации, путем варьирования приоритетами;

3.Выявлять повторяющиеся закономерности;

4.Генерировать новые знания, путем анализа имеющейся в памяти слабо формализованной информации в виде результатов ее специальной обработки.

Для обработки слабо формализованной информации могут быть использованы распределенные информационно-вычислительные системы или кластеры высокопроизводительных параллельных вычислений.

Копыльцов А.А.

Россия, Санкт-Петербург, Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)

СЛАБО ФОРМАЛИЗОВАННАЯ ИНФОРМАЦИЯ И АЛГОРИТМЫ ЕЕ ОБРАБОТКИ

Под слабо формализованной информацией понимаем информацию, которая поступает от технических систем с различных датчиков и представлена в разнообразном виде. Для того чтобы из слабо формализованной информации получить формализованную, можно, например, непрерывную информацию представить в виде дискретной, путем записывания в таблицу данных через фиксированные промежутки времени, а дискретную информацию, снимаемую с различных датчиков, можно записывать в таблицу в одинаковом формате. К сожалению, это не всегда можно осуществить. Для обработки такой информации предлагается обобщенный алгоритм обработки слабо формализованной информации, включающий другие алгоритмы и содержащий 14 этапов.

1.Информация, поступающая от технической системы через совокупность различных датчиков, собирается в модуле «сбор информации».

2.Информация поступает из модуля «сбор информации» в модуль «распознавание информации», где осуществляется ее распознавание.

3.Из модуля «распознавание информации» информация поступает в модуль «классификация информации», где осуществляется ее классификация.

4.Информация, поступающая в каждый из классов, подвергается в модулях «свертка информации» своей, присущей данному классу, обработке по определенному алгоритму (свертке).

5.Оценивание достоверности информации осуществляется в модулях «оценивание достоверности информации».

6.В модулях «оценивание безопасности информации» осуществляется оценивание безопасности информации в каждом классе.

7.Установление связей между вновь полученной информацией в каждом классе и ранее полученной информацией, осуществляется в модулях «установление связей».

8.Оценивание вероятности, с которой можно доверять полученной информации, в каждом классе осуществляется в модулях «оценивание вероятности» с помощью вероятностного алгоритма.

9.Поддержка принятия решений в каждом классе осуществляется в модулях «поддержка принятия решений».

10.Сбор сгенерированных решений из всех классов осуществляется в модуле «обобщенная поддержка принятия решений» и затем на их основе осуществляется генерация новой совокупности решений.

11.В модуле «определение числа связей» осуществляется сравнение принятого решения с решениями, принятыми ранее.

http://spoisu.ru

РАСПРЕДЕЛЕННЫЕ ИНФОРМАЦИОННО-ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ, ГРИД-ТЕХНОЛОГИИ

557

 

 

12.В модуле «выработка устойчивых решений» осуществляется выработка устойчивой реакции на многократно поступающую информацию и ее запоминание.

13.В модуле «генерация решений» осуществляется генерация решений.

14.В модуле «хранилище» на основе вновь записанной информации и путем ее сравнения с ранее записанной информацией генерируется новая информация.

Приведенный обобщенный алгоритм может быть использован при поддержке принятия решений применительно к различным техническим системам и реализован на распределенных информационно-вычислительных системах.

Копыльцов А.А., Копыльцов А.В.

Россия, Санкт-Петербург, Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина), Санкт-Петербургский государственный университет аэрокосмического приборостроения КАЧЕСТВЕННАЯ И КОЛИЧЕСТВЕННАЯ СЛАБОФОРМАЛИЗОВАННАЯ ИНФОРМАЦИЯ И ЕЕ ОБРАБОТКА

Качество и количество существенно отличаются друг от друга (Гегель, Наука логики). Качество, согласно Гегелю, – тождественная с бытием определенность, и нечто перестает быть тем, чем оно является, когда теряет свое качество, а количество, – внешняя бытию определенность. Т.е. количество не зависит от природы вещи. Согласно Ф. Энгельсу (Диалектика природы) каждая вещь характеризуется качеством, количеством и мерой. Качество определяется бесконечным набором характеристик. Каждая из качественных характеристик имеет меру. При моделировании количественных характеристик окружающих нас вещей разработано большое количество различных методов.

При моделировании какой-либо вещи или ее качественных характеристик возникают существенные трудности. В частности, при моделировании какой-либо вещи нужно моделировать бесконечный набор качественных характеристик, которыми эта вещь определяется. Поскольку, в настоящее время это невозможно реализовать, то ограничиваются конечным набором качественных характеристик, которые считаются наиболее существенными при решении конкретной задачи.

Возникает проблема – как осуществить выбор наиболее существенных качественных характеристик при решении конкретной задачи.

Во-первых, сколько их должно быть и, во-вторых, какие именно.

Поскольку этот процесс сугубо субъективный (зависит от квалификации и опыта эксперта), то на практике при решении подобных задач, связанных с анализом и обработкой слабо формализованной информации, количество качественных характеристик и их наименования у разных экспертов различаются. Несмотря на трудности при оценивании качества вещей строятся различные модели, которые позволяют это делать удовлетворительно.

Модели как специфическое средство и форма научного знания известны с давних времен и модели постоянно создавались и создаются. Под моделью в различных областях человеческой деятельности понимают разное.

Термин модель употребляется в двух различных значениях: в значении некоторой теории и в значении того, что некоторая теория описывает, отражает.

Моделирование основывается на методе аналогии, который позволяет установить отношения изоморфизма между двумя объектами, каждый из которых может быть абстрактным или реально существующим.

В основе классификации моделей лежит понимание модели, как средства отображения, воспроизведения той или иной части действительности с целью ее более глубокого познания.

Отношение между моделью и оригиналом варьируется в зависимости от способа воспроизведения. В зависимости от способа построения моделей, от средств, какими производится моделирование изучаемых объектов, все модели могут быть разделены на 2 класса: материальные (вещественные, реальные) и идеальные (мысленные, воображаемые).

Материальные модели в свою очередь могут быть разделены на 3 основные группы: пространственно подобные, физически подобные и математически подобные.

Идеальные модели могут быть разделены на 3 группы: образные, знаковые и промежуточные между первой и второй группами.

Математическое моделирование имеет ряд преимуществ перед другими подходами, а именно, математическая модель позволяет: проанализировать огромное количество различных вариантов, подвергнуть анализу отдельные стороны изучаемого явления, как бы в изолированном виде, произвести анализ таких аспектов опыта, которые вообще не могут быть воспроизведены в реальной обстановке. В настоящее время построено множество моделей в той или иной степени соответствующих реальности и реализованных на распределенных информационно-вычислительных системах.

http://spoisu.ru

558

РЕГИОНАЛЬНАЯ ИНФОРМАТИКА – 2014

 

 

Нечитайленко Р.А., Новопашин В.С.

Россия, Санкт-Петербург, Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)

АВТОМАТИЗИРОВАННОЕ РАБОЧЕЕ МЕСТО ПОЛЬЗОВАТЕЛЯ РАСПРЕДЕЛЕННОЙ БАЗЫ ДАННЫХ

Труд работников любой сферы деятельности в настоящее время ориентирован на использование современных информационных технологий. Организация и реализация рабочих функций требуют радикального изменения как самой технологии управления, так и технических средств обработки информации. Компьютеры все более превращаются из систем автоматической переработки входной информации в средства накопления опыта управленческих работников, анализа, оценки и выработки наиболее эффективных экономических решений, которые специалисты в дальнейшем хотят использовать в своей работе. Это пожелание должно иметь техническую и программную поддержку, что расширяет требования к средствам сопряжения всех видов ресурсов как на уровне автоматизированного рабочего места (АРМ), так и информационной системы в целом. Тенденция к усилению децентрализации управления влечет за собой распределенную обработку информации с децентрализацией применения средств вычислительной техники (ВТ) и совершенствованием организации непосредственно рабочих мест пользователей. Для распределенной информационной системы (РИС) и ее распределенной базы данных (РБД) необходимо соблюсти единую концепцию централизованного и периферийного управления, информационной поддержки, сервиса - в равной степени удобных и гарантированно работоспособных на всех уровнях РИС. АРМ можно определить как совокупность информационно- программно-технических ресурсов, обеспечивающих конечному пользователю обработку данных и автоматизацию управленческих функций в конкретной предметной области, поэтому было принято решение именно ресурс АРМ сделать носителем полноты и особенностей предметной области. Эта концепция стала основой для выбора технического и программно-языкового обеспечения АРМ.

Создание АРМ предполагает, что основные операции по накоплению, хранению и переработке информации возлагаются на ВТ, а специалист выполняет часть ручных операций и операций, требующих творческого подхода при подготовке своих и общих управленческих решений. Поэтому сервис построен так, что сочетает требования централизованных управления и реализации и персональных предпочтений пользователей АРМ. Как инструмент рационализации и интенсификации управленческой деятельности АРМ создается для обеспечения выполнения некоторой группы функций. Наиболее простой функцией АРМ является информационно-справочное обслуживание, поэтому уже на этом уровне встают интересные творческие задачи по компиляции возможностей стандартных средств и вновь создаваемых дополнений, расширений и исключений, ориентаций на различные категории пользователей. Помимо децентрализованной работы на рабочих местах исполнителей в составе распределенной базы данных РБД, они через системное устройство и каналы связи имеют выход в ПЭВМ и РБД других пользователей, обеспечивая таким образом совместное функционирование ПЭВМ в процессе коллективной обработки данных. Эта задача также эффективно решается сочетанием стандартных, унифицированных и эксклюзивных решений. Опыт работы авторов по проектированию и реализации выдвинутой концепции показал ее эффективность и предпочтительность как на уровне АРМ, так и централизованной системы.

Суконщиков А.А., Яковлев С.А.

Россия, г. Вологда, Вологодский государственный технический университет, Санкт-Петербург, Санкт-Петербургский государственный электротехнический университет «ЛЭТИ» им. В.И. Ульянова (Ленина)

СИСТЕМА СИТУАЦИОННОГО ИНТЕЛЛЕКТУАЛЬНО-АГЕНТНОГО МОДЕЛИРОВАНИЯ

Во вводной части доклада рассматриваются вопросы построения ситуационных интеллектуально-агентных систем моделирования сложных систем на примере корпоративных сетей с поддержкой качества обслуживания. Рассматриваются многоагентная интеллектуальная система, приводится теоретико-множественное описание агентов и их взаимодействий.

Главным отличием современных интеллектуальных систем является их распределенность, обеспечение обработки и применение распределенных знаний. Главный смысл происходящих в настоящее время смен концепций (парадигмы) создания и использования средств искусственного интеллекта – переход от предположений, справедливых только для изолированных систем искусственного интеллекта, от индивидуальных систем к распределенной обработке информации и разработке MAИC.

При практической реализации распределенных систем возникли серьезные трудности с проектированием и описанием объединенных в единую сеть разнородных локальных компьютерных узлов. Только при применении теории МАИС возможно преодолеть трудности с моделированием разнородных сетей с разнообразным оборудованием.

http://spoisu.ru

РАСПРЕДЕЛЕННЫЕ ИНФОРМАЦИОННО-ВЫЧИСЛИТЕЛЬНЫЕ СИСТЕМЫ, ГРИД-ТЕХНОЛОГИИ

559

 

 

Исходя из многоуровневой структуры ситуационного моделирования, авторы считают, что необходима МАИС, которая формирует взаимодействие интеллектуальных агентов (ИА) на всех стратах моделирования. Для структуры ситуационного моделирования налицо все признаки многоагентных систем: распределенность, независимая параллельная работа экспертов, масштабируемость, т.е. при добавлении нового объекта или подсети система не перепрограммируется, а только добавляются новые агенты и включается в общее взаимодействие.

На основании изложенных выше соображений о характеристиках известных моделей ИА и изложенной формальной теории ситуационного моделирования, авторы предлагают определить ИА как гибридную архитектуру. Интеллектуальный агент в системе, будет представляться в виде многоагентной интеллектуальной системой, что позволит разрабатывать иерархию функций, процессов, моделей и взаимосвязей в виде отдельных взаимосвязанных агентов]. Такой подход позволяет разрабатывать независимо модель каждого агента, определять его роль в МАИС и его взаимосвязи с другими агентами. Такой принцип хорошо встраивается в концепцию построения системы ситуационного интеллектуального-агентного моделирования.

В итоге можно констатировать, что доклад посвящен реализации обобщенной модели построения систем ситуационного интеллектально-агентного моделирования корпоративных сетей с поддержкой качества обслуживания. На основе предложенной интеллектуальной концепции ситуационного моделирования появляются новые возможности при моделировании сетей, анализе их функционирования и уменьшение влияния человеческого фактора при возникновении сложных ситуаций в реальных системах. Результатом функционирования системы системы ситуационного интеллектуального-агентного моделирования является управляющие действия в зависимости от развития ситуаций. Изложенный подход представляет собой развитие идеологии ситуационного управления.

http://spoisu.ru

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]