Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги2 / 17

.pdf
Скачиваний:
0
Добавлен:
24.02.2024
Размер:
2.71 Mб
Скачать

и государства243. Для того чтобы ответить на вопрос, какие особенности выде-

ляют данную компьютерную технологию на фоне других, необходимо разо-

браться, что такое искусственный интеллект.

Некоторые зарубежные исследователи определяют искусственный интел-

лект как способность компьютерной программы (или аппаратного средства)

имитировать интеллектуальное поведение (англ. «the capability of amachinetoimitate intelligent behavior»)244. Речь об имитации интеллектуального поведения человека, от распознавания образов до творчества.

В рамках данной главы мы будем понимать под искусственным интеллек-

том любую систему, которая может выполнять интеллектуальные функции. Та-

кая система может определенным образом интерпретировать внешние данные,

учиться на таких данных и использовать полученные знания для достижения каких-либо определенных целей и задач. Наиболее популярным методом в настоящее время является машинное обучение, то есть процесс самостоятель-

ного получения знаний интеллектуальной системой из предопределенной вы-

борки данных и посредством обратной связи на соотношение входа и выхода.

В отличие от других систем, дерево решений (или классификации) которых за-

ранее определено программистом, системы машинного обучения строят функ-

цию, на основании которой можно было бы прогнозировать выход. Например,

если нам надо обучить систему определять болезнь по рентгеновскому снимку,

мы обучаем систему на большом количестве снимков здоровых и больных лю-

дей. В дальнейшем подавая на вход снимок, пользователь может получить пра-

вильный ответ с какой-либо вероятностью. В случае если система дала непра-

вильный ответ, можно сообщить ей об этом, чтобы она повысила вероятность правильных ответов в будущем.

Наиболее популярным методом машинного обучения сейчас являются нейронные сети. Нейронные сети — это попытка сымитировать организацию и функционирование биологических нейронных сетей, например, нейронов го-

243Дремлюга Р.И., Дремлюга О.А. Искусственный интеллект — субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. № 2. С. 120–125.

244Padhy N.P., Artificial intelligence and intelligent systems 3. OxfordUniversityPress, 2005. P. 23.

201

ловного мозга. Такой метод дает множество преимуществ, например, подобные методы просты в использовании и не требуют специальных математических знаний, кроме того, использование нейронных сетей позволяет обобщить и вы-

делить скрытые зависимости между входными и выходными данными, которые не очевидны для человека.

Можно выделить несколько характеристик большинства интеллектуаль-

ных систем, используемых в настоящее время. Во-первых, современным систе-

мам искусственного интеллекта (прежде всего, построенным на основе нейрон-

ных сетей) свойственна непрозрачность. Отсутствие прозрачности можно по-

нимать в двух контекстах: юридическая непрозрачность (невозможность досту-

па к коду программы, так как он защищен как интеллектуальная собственность или коммерческая тайна) и непрозрачность в применении алгоритма (слож-

ность в понимании, как работает алгоритм).

Непрозрачность в юридическом смысле свойственна любым компьютер-

ным программам, компании раскрывают сведения об устройстве своего интел-

лектуального продукта только по решению суда или требованию госорганов245.

А вот непрозрачность в техническом смысле характерна именно для современ-

ных систем ИИ. Наличие доступа к исходному коду алгоритма и данным про-

граммы не является гарантией того, что механизм принятия решений искус-

ственным интеллектом станет более транспарентным. Как показывают некото-

рые исследования, несмотря на высокую точность и надежность применяемых алгоритмов, их работа часто остается «черным ящиком» для пользователя с точки зрения того, как они генерируют решения или прогнозы на основе входных данных246. Например, понимание работы нейронных сетей, которые позволяют успешно диагностировать болезни, требует использования дополни-

245Дремлюга Р.И., Решетников В.В. Правовые аспекты применения предиктивной аналитики в правоохранительной деятельности // Азиатско-тихоокеанский регион: Экономика, политика, право. 2018. № 3. С. 133–144.

246Дремлюга Р.И., Кошель А.С.Искусственный интеллект как социальный регулятор:

за и против // Азиатско-тихоокеанский регион: Экономика, политика, право. 2018. № 3. С. 55–68.

202

тельного программного обеспечения247. Как отмечают исследователи, вспомо-

гательное программное обеспечение помогает объяснить результат только

вслучае небольших наборов данных. Таким образом, можно точно сказать,

вскольких случаях алгоритм даст нам правильный ответ или примет правиль-

ное решение (часто превосходя человека), но технически очень трудно ответить на вопрос, как ИИ это делает. Это теоретически возможно, но на практике до-

рого и времязатратно.

Вторым свойством можно назвать самодетерминированность. Часть си-

стем искусственного интеллекта способна к обучению в процессе разработки и эксплуатации, и их поведение и функционирование не подлежит прогнозиро-

ванию разработчиками их проектировавшими. Характерной иллюстрацией это-

го свойства является пример системы «Тай», разработанной для общения в Ин-

тернете. Первоначальная версия данной системы, которая может учиться у сво-

их собеседников, была создана для общения в Твиттере компанией Microsoft

и запущена в открытом доступе 23 марта 2016 г. Спустя сутки разразился скан-

дал из-за многочисленных неэтичных и противоправных высказываний искус-

ственного интеллекта. Среди прочих оскорбительных заявлений, Тай высказы-

вался в поддержку геноцида и выражал свое согласие с политикой Гитлера,

предлагал сжечь всех феминисток248. Компания «Microsoft» не предполагала о таком поведении системы на этапе разработки и тестирования, а сами выска-

зывания появились как реакция на обычный стиль обсуждения острых социаль-

ных тем в сети249. Таким образом, алгоритм научился такому поведению по-

средством общения с другими пользователями сети. Вопрос, кто в этом случае будет отвечать за пропаганду расизма и нацизма, остается без ответа.

247Van Calster B., Wynants L., Timmerman D., Steyerberg E.W., Collins G.S. Predictive analytics in health care: how can we know it works? // Journal of the American Medical Informatics Association, 26(12), 2019. P. 1651–1654.

248Чат-бот от Microsoft за сутки научился ругаться и стал расистом // Официальный сайт информационного агентства Интерфакс. URL: <http://www.interfax.ru/world/500152> (дата об-

ращения: 5.10.2019).

249Tay, Microsoft'sAIchatbot, getsacrashcourseinracismfromTwitter. URL: <https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash- course-in-racism-from-twitter?CMP=twt_a-technology_b-gdntech> (дата обращения: 5.10.2019).

203

Исходя из приведенного примера, интеллектуальную систему, изначально не предназначенную для совершения противоправных и преступных действий,

можно научить такому поведению. В таком случае преступником, скорее всего,

будет являться лицо, обучившее искусственный интеллект подобному поведе-

нию и использовавшее его как средство для совершения своего преступного де-

яния, если оно сделало это намеренно. В приведенном случае большинство экс-

пертов сходится во мнении, что пользователи, общавшиеся с ИИ, ненамеренно учили его противоправному поведению250.

Обобщая вышесказанное, получается, что система искусственного интел-

лекта — это компьютерная система или программа, имитирующая один или не-

сколько аспектов интеллектуального поведения, которая обладает высокой сте-

пенью самодетерминированности (автономности) и непрозрачности для разра-

ботчика или пользователя. Некоторые интеллектуальные системы способны

кобучению и самообучению.

Вэтой связи встает вопрос о том, кто будет привлечен к ответственности за вред, причиненный системой искусственного интеллекта. Ведь ни пользова-

тель, ни разработчик не имеют возможности понять текущее состояние такой системы. В отличие от, например, огнестрельного оружия, где дееспособному человеку понятны последствия нажатия на курок, при использовании интеллек-

туальных систем преступником результат может существенно отличаться от охватываемого его умыслом, при этом как в сторону увеличения негативного социального эффекта, так и в сторону уменьшения. Так как эффект от исполь-

зования ИИ непредсказуем, вряд ли можно говорить о том, что использование искусственного интеллекта как средства совершения преступления повышает общественную опасность преступного деяния и может быть в будущем исполь-

зовано в Уголовном кодексе как отягчающее обстоятельство.

250 Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day // The Verge. URL: <https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist> (дата обращения: 5.10.2019).

204

Тем не менее некоторые категории преступлений ИИ действительно может сделать более общественно опасными как с точки зрения потенциального вре-

да, так и с точки зрения безнаказанности правонарушителя251.

Искусственный интеллект позволяет преступнику автоматизировать рабо-

ту, ранее требующую интеллектуальной вовлеченности человека. Мошенниче-

ство посредством рассылки электронных сообщений, в которой под тем или иным предлогом просят перевести деньги, например, в целях благотворитель-

ности или последующего обогащения. Эффективность такой неадресной рас-

сылки не очень высока и преступный результат достигается за счет большого охвата потенциальных жертв. Если применить искусственный интеллект, то можно выявить те или иные поведенческие и психологические особенности по-

тенциальной жертвы по данным, находящимся в открытом доступе (например,

социальные сети или странички сотрудников коммерческих организаций). Мо-

шенник, вооруженный интеллектуальной системой, сможет организовать мас-

совую рассылку с целью получения чужих денежных средств обманом, учиты-

вая слабости и предпочтения конкретных людей. Эта способность систем ис-

кусственного интеллекта уже несколько лет используется в легальных целях крупными интернет-компаниями для повышения эффективности интернет-

рекламы252. Реклама носит адресный характер и ее содержание и представле-

ние для конкретного интернет-пользователя зависит от анализа с помощью ИИ сетевой активности, профилей в социальных сетях и другой открытой ин-

формации.

Учитывая историю с чат-ботом Tai, описанную выше, преступник может создать подобную систему намеренно, для совершения преступления, оскорб-

ления или других деяний, ранее требующих вовлеченности человека. ИИ сдела-

ет это, учитывая особенности человека, и, соответственно, может нанести

251Дремлюга Р.И. Cистемы искусственного интеллекта как средство совершения преступления // Информационное право. 2019. № 1. С. 21–25.

252См. например: Jordan M.I., Mitchell T.M. Machine learning: Trends, perspectives, and prospects // Science. 2015. № 349 (6245). P. 255–260.

205

больший вред. Исходный код подобного рода программ можно легко найти в Интернете253 и подобная задача по силам школьнику254.

Другой преступной сферой применения систем искусственного интеллекта может стать использование автономных транспортных средств для совершения преступлений. Автономные летательные или наземные средства передвижения могут использоваться в нелегальном обороте наркотиков и оружия, вмешатель-

стве в частную жизнь и даже для совершения насильственных преступлений.

Особую угрозу представляет использования беспилотных средств для соверше-

ния терактов.

Автомобили с водителем уже используются для совершения террористиче-

ских актов и убийств. Например, известным примером является атака с помо-

щью автомобиля с водителем-смертником255. Как подчеркивают некоторые ав-

торы, «коммерческие грузовики и легковые автомобили все чаще используются террористами в Европе в качестве оружия для нападения на толпы пешехо-

дов»256. Вероятно, для отдельного преступника было бы слишком дорого и трудно достать и перепрограммировать беспилотный автомобиль. Следова-

тельно, это было бы не очень распространено среди отдельных преступников,

но для хорошо оснащенных и хорошо финансируемых террористических орга-

низаций это прекрасная возможность создать угрозу повсюду в мире.

Использование террористами в будущем автомобилей без водителя пред-

сказуемо в связи с тем, что они уже используют машины с водителями для со-

вершения массовых убийств. В случае полностью автономных автомобилей преступники получают дополнительную выгоду с точки зрения времени и цены подготовки. До появления беспилотного автотранспорта террористической ор-

253См. например: THE BEST OPEN SOURCE CHATBOT PLATFORMS IN 2019. URL: https://blog.verloop.io/the-best-open-source-chatbot-platforms-in-2019/ (дата обращения: 25.12.2019).

254См. например: URL: https://rb.ru/opinion/biznes-na-chat-botah/; https://habr.com/ru/post/ 346606/

255Дремлюга Р.И. Криминологическая характеристика терроризма в Индонезии // Азиатскотихоокеанский регион: Экономика, политика, право. 2014. Т. 16. № 1–2. С. 148–166.

256Hauer T., Huschitt N., Klein F. Patient care after terrorist attacks: Experiences from the Berlin Christmas market attack (19 December 2016) // Notfall und Rettungsmedizin. 2018. № 21(4).

P. 267–277.

206

ганизации необходимо было бы потратить много времени и ресурсов на подго-

товку одного террориста, а также тайно готовить операцию с высокими шанса-

ми на обнаружение и срыв257. Только вербовка состоит из 5 этапов258, и потен-

циальный террорист должен полностью разделять идеологические основы дея-

тельности своей организации. Люди — слабое звено в этой подготовке, они мо-

гут передумать или сдаться правоохранительным органам. Посредством ис-

пользования беспилотных летательных аппаратов террористические организа-

ции могут сразу же избавиться от всех вышеперечисленных трудностей.

Самой пугающей способностью ИИ, которая ставит под угрозу существу-

ющий и полагающийся на информацию мир, является возможность создания реалистичных информационных подделок в домашних условиях.

Речь о так называемом «DeepFake», то есть о замене определенных эле-

ментов изображения на желаемые образы с помощью искусственного интеллек-

та. Поскольку подделка такого рода является относительно новым явлением,

некоторые из ее применений не подпадают под действие Уголовного кодекса.

Например, достаточно распространено явление, когда в порноролик вставляют лицо известной актрисы, никогда не снимавшейся там259. Не до конца ясно, яв-

ляется ли это изготовлением порнографического материала.

Способность производства мошеннических данных предоставляет пре-

ступнику огромные возможности. Преступник может производить цифровой контент, способный ввести в заблуждение любого человека. Поскольку ИИ по-

тенциально дает возможность генерировать любую «фальшивую» информацию,

в скором времени нам придется столкнуться с новыми общественно опасными деяниями. В Интернете легко найти поддельные ролики, где какое-либо офици-

257 See for instance: Springer D.R., Regens J.L., Edger D.N. Islamic radicalism and global jihad, Publisher: Georgetown University Press. 2009. P. 133–144.

258Там же. С. 135.

259Deepfakes: порно, в которое нейросеть добавляет лица знаменитостей. Его запрещают все крупные сервисы, даже PornHub. URL: Meduza/ https://meduza.io/feature/2018/02/07/deepfakes- porno-v-kotoroe-neyroset-dobavlyaet-litsa-znamenitostey-ego-zapreschayut-vse-krupnye-servisy- dazhe-pornhub.

207

альное лицо говорит совсем не то, что говорит в действительности, а произно-

сит поддельную речь.

Анализ показывает, что благодаря некоторым характеристикам ИИ он мо-

жет стать очень популярным средством совершения преступления в крими-

нальном мире. Среди таких свойств мы и определили в этой части:

-способность систем ИИ раскрывать личную информацию (здоровье,

сексуальная ориентация, психологические особенности, слабости и т.д.), ис-

пользуя информацию из открытых источников;

-способность создавать поддельную видео, фото и аудиоинформацию;

-способность ИИ автоматически выбирать стратегию для получения большей вероятности ответа (или даже эмпатии) от жертвы;

-способность быть цифровым центром управления систем, предназна-

ченных для совершения актов насилия.

Виртуальная реальность. В технической литературе виртуальную реаль-

ность определяют как «созданный техническими средствами мир, передавае-

мый человеку через его ощущения: зрение, слух, обоняние, осязание и другие.

Виртуальная реальность имитирует как воздействие, так и реакции на воздей-

ствие»260. Например, если пользователь наденет шлем виртуальной реальности и использует программное обеспечение, имитирующие вождение гоночного ав-

томобиля на гоночной трассе, то перед собой он увидит технически смоделиро-

ванную визуализацию вида из кресла гоночного автомобиля. Управляя рулем,

которым он управляет в реальном мире, пользователь может воздействовать на объекты мира виртуального. Смоделированный видеоряд будет имитировать езду на гоночном автомобиле в соответствии с поворотами руля пользователем.

Несмотря на сложность определения термина «виртуальная реальность» можно выделить несколько императивных признаков, присущих данной техно-

логии. Во-первых, виртуальная реальность это модель или симуляция настоя-

щего или вымышленного мира (среды). Это отличает ее от другого термина до-

260 Скрыльникова А. Все, что нужно знать про VR/AR-технологии. URL: https://rb.ru/story/ vsyo-o-vr-ar/

208

полненная реальность, где в реальный мир вводятся конструируемые при по-

мощи компьютерных средств объекты261. Во-вторых, эта симуляция цифровая,

то есть смоделированная с помощью компьютера. В-третьих, такая симуляция создает ощущение реальности мира посредством устройств обратной связи, ре-

алистичности передвижений, полноты сконструированного мира или другими способами.

Следует отметить, что виртуальная реальность — это, прежде всего, новая среда социального взаимодействия в различных формах. В настоящее время преобладает использование данной технологии в игровых целях, растет попу-

лярность использования виртуальной реальности для рабочих совещаний и личных встреч262. Организации деловых встреч, многопользовательские ре-

жимы игры в виртуальной реальности означают аудио- и видеоконтакт между пользователями. В виртуальном мире зачастую человек виден другим пользова-

телям как антропоподобный аватар263, внешний вид которого определяется пользователем. Действия в цифровом пространстве посредством вербального и визуального контакта могут причинить реальный вред.

Некоторые авторы выделяют вербальные преступления в отдельную кри-

минологическую категорию. Содержательная часть объективной стороны вер-

бальных преступлений определяет способ совершения преступления в виде вербальных репрезентаций. Их можно признать и орудием, и средством дости-

жения преступного результата264.

С помощью технологии виртуальной реальности можно совершать широ-

кий круг преступлений от «клеветы» (ст. 128.1 УК РФ) до «публичных призы-

вов к осуществлению террористической деятельности или публичное оправда-

261Наиболее ярким примером является многопользовательская игра PokemonGo, в которую играет более 100 млн пользователей по всему миру. См.: например: Feldman B. Agencyandgovernance: Pokémon-Goandcontestedfuninpublicspace // Geoforum. 2018. № 96. P. 289–297.

262Perry T.S. Virtual reality goes social: Meeting people, not playing games, will be VR's killer app, 2016. IEEESpectrum. 53(1). 7367470. P. 56–57.

263В контексте использования в среде виртуальной реальности аватар — это трехмерное графическое представление пользователя ВР.

264Абызов Р.М., Землюков С.В. К вопросу о понятии вербального преступления // Российский следователь. 2014. № 24. С. 35.

209

ние терроризма». Обширное использование виртуальной компьютерной среды для социального взаимодействия порождает классическое противоречие между необходимостью свободного обмена информацией и расширения инструмента-

рия для этого как фактора экономического роста и потребностями на введение ограничений на свободное использование определенных видов информации как фактора безопасности государства и общества.

Уникальными характеристиками виртуальной реальности как средства до-

стижения преступного результата являются способность такой среды создавать иллюзию реалистичности у пользователя и возможность проявляться в виде по-

следствий в реальном мире.

Проведенные исследователями опыты показывают, что пользователи в виртуальной реальности могут бояться подходить к краю смоделированного высотного здания, демонстрируя такие же психоэмоциональные реакции, как будто это происходит в реальном мире. В качестве реакций на виртуальную вы-

соту исследователями были зафиксированы головокружение, тошнота, боли желудка и тремор рук265. Как отмечается в некоторых исследованиях, чувства,

вызванные происходящим в виртуальной реальности, могут иметь реальные физические последствия. Пользователь может быть буквально напуган до смер-

ти (по крайней мере, до состояния сердечного приступа) виртуальной игрой,

в которой чувствовал себя достаточно реально. Даже если пользователь физи-

чески не пострадал, для него это может быть тяжелым психотравмирующим испытанием, которое сложно воссоздать в Интернете или в видеоигре без ис-

пользования виртуальной среды266.

Реалистичность виртуальных сред имеет и свое позитивное применение,

например, есть успехи по их использованию для борьбы с наркозависимо-

265Liat Clark, Walking the Plank with the Oculus Rift is Stomach-Churning Stuff, WIRED UK (May, 30, 2013). URL: http://www.wired.co.uk/article/oculus-vr

266Lemley Mark A., Volokh E. Law, Virtual Reality, and Augmented Reality (February 27, 2018). University of Pennsylvania Law Review, Vol. 166, 2018, Forthcoming; Stanford Public Law Working Paper No. 2933867; UCLA School of Law, Public Law Research Paper No. 17-13. URL: https://ssrn.com/abstract=2933867 orhttp://dx.doi.org/10.2139/ssrn.2933867

210

Соседние файлы в папке книги2