книги2 / 17
.pdfи государства243. Для того чтобы ответить на вопрос, какие особенности выде-
ляют данную компьютерную технологию на фоне других, необходимо разо-
браться, что такое искусственный интеллект.
Некоторые зарубежные исследователи определяют искусственный интел-
лект как способность компьютерной программы (или аппаратного средства)
имитировать интеллектуальное поведение (англ. «the capability of amachinetoimitate intelligent behavior»)244. Речь об имитации интеллектуального поведения человека, от распознавания образов до творчества.
В рамках данной главы мы будем понимать под искусственным интеллек-
том любую систему, которая может выполнять интеллектуальные функции. Та-
кая система может определенным образом интерпретировать внешние данные,
учиться на таких данных и использовать полученные знания для достижения каких-либо определенных целей и задач. Наиболее популярным методом в настоящее время является машинное обучение, то есть процесс самостоятель-
ного получения знаний интеллектуальной системой из предопределенной вы-
борки данных и посредством обратной связи на соотношение входа и выхода.
В отличие от других систем, дерево решений (или классификации) которых за-
ранее определено программистом, системы машинного обучения строят функ-
цию, на основании которой можно было бы прогнозировать выход. Например,
если нам надо обучить систему определять болезнь по рентгеновскому снимку,
мы обучаем систему на большом количестве снимков здоровых и больных лю-
дей. В дальнейшем подавая на вход снимок, пользователь может получить пра-
вильный ответ с какой-либо вероятностью. В случае если система дала непра-
вильный ответ, можно сообщить ей об этом, чтобы она повысила вероятность правильных ответов в будущем.
Наиболее популярным методом машинного обучения сейчас являются нейронные сети. Нейронные сети — это попытка сымитировать организацию и функционирование биологических нейронных сетей, например, нейронов го-
243Дремлюга Р.И., Дремлюга О.А. Искусственный интеллект — субъект права: аргументы за и против // Правовая политика и правовая жизнь. 2019. № 2. С. 120–125.
244Padhy N.P., Artificial intelligence and intelligent systems 3. OxfordUniversityPress, 2005. P. 23.
201
ловного мозга. Такой метод дает множество преимуществ, например, подобные методы просты в использовании и не требуют специальных математических знаний, кроме того, использование нейронных сетей позволяет обобщить и вы-
делить скрытые зависимости между входными и выходными данными, которые не очевидны для человека.
Можно выделить несколько характеристик большинства интеллектуаль-
ных систем, используемых в настоящее время. Во-первых, современным систе-
мам искусственного интеллекта (прежде всего, построенным на основе нейрон-
ных сетей) свойственна непрозрачность. Отсутствие прозрачности можно по-
нимать в двух контекстах: юридическая непрозрачность (невозможность досту-
па к коду программы, так как он защищен как интеллектуальная собственность или коммерческая тайна) и непрозрачность в применении алгоритма (слож-
ность в понимании, как работает алгоритм).
Непрозрачность в юридическом смысле свойственна любым компьютер-
ным программам, компании раскрывают сведения об устройстве своего интел-
лектуального продукта только по решению суда или требованию госорганов245.
А вот непрозрачность в техническом смысле характерна именно для современ-
ных систем ИИ. Наличие доступа к исходному коду алгоритма и данным про-
граммы не является гарантией того, что механизм принятия решений искус-
ственным интеллектом станет более транспарентным. Как показывают некото-
рые исследования, несмотря на высокую точность и надежность применяемых алгоритмов, их работа часто остается «черным ящиком» для пользователя с точки зрения того, как они генерируют решения или прогнозы на основе входных данных246. Например, понимание работы нейронных сетей, которые позволяют успешно диагностировать болезни, требует использования дополни-
245Дремлюга Р.И., Решетников В.В. Правовые аспекты применения предиктивной аналитики в правоохранительной деятельности // Азиатско-тихоокеанский регион: Экономика, политика, право. 2018. № 3. С. 133–144.
246Дремлюга Р.И., Кошель А.С.Искусственный интеллект как социальный регулятор:
за и против // Азиатско-тихоокеанский регион: Экономика, политика, право. 2018. № 3. С. 55–68.
202
тельного программного обеспечения247. Как отмечают исследователи, вспомо-
гательное программное обеспечение помогает объяснить результат только
вслучае небольших наборов данных. Таким образом, можно точно сказать,
вскольких случаях алгоритм даст нам правильный ответ или примет правиль-
ное решение (часто превосходя человека), но технически очень трудно ответить на вопрос, как ИИ это делает. Это теоретически возможно, но на практике до-
рого и времязатратно.
Вторым свойством можно назвать самодетерминированность. Часть си-
стем искусственного интеллекта способна к обучению в процессе разработки и эксплуатации, и их поведение и функционирование не подлежит прогнозиро-
ванию разработчиками их проектировавшими. Характерной иллюстрацией это-
го свойства является пример системы «Тай», разработанной для общения в Ин-
тернете. Первоначальная версия данной системы, которая может учиться у сво-
их собеседников, была создана для общения в Твиттере компанией Microsoft
и запущена в открытом доступе 23 марта 2016 г. Спустя сутки разразился скан-
дал из-за многочисленных неэтичных и противоправных высказываний искус-
ственного интеллекта. Среди прочих оскорбительных заявлений, Тай высказы-
вался в поддержку геноцида и выражал свое согласие с политикой Гитлера,
предлагал сжечь всех феминисток248. Компания «Microsoft» не предполагала о таком поведении системы на этапе разработки и тестирования, а сами выска-
зывания появились как реакция на обычный стиль обсуждения острых социаль-
ных тем в сети249. Таким образом, алгоритм научился такому поведению по-
средством общения с другими пользователями сети. Вопрос, кто в этом случае будет отвечать за пропаганду расизма и нацизма, остается без ответа.
247Van Calster B., Wynants L., Timmerman D., Steyerberg E.W., Collins G.S. Predictive analytics in health care: how can we know it works? // Journal of the American Medical Informatics Association, 26(12), 2019. P. 1651–1654.
248Чат-бот от Microsoft за сутки научился ругаться и стал расистом // Официальный сайт информационного агентства Интерфакс. URL: <http://www.interfax.ru/world/500152> (дата об-
ращения: 5.10.2019).
249Tay, Microsoft'sAIchatbot, getsacrashcourseinracismfromTwitter. URL: <https://www.theguardian.com/technology/2016/mar/24/tay-microsofts-ai-chatbot-gets-a-crash- course-in-racism-from-twitter?CMP=twt_a-technology_b-gdntech> (дата обращения: 5.10.2019).
203
Исходя из приведенного примера, интеллектуальную систему, изначально не предназначенную для совершения противоправных и преступных действий,
можно научить такому поведению. В таком случае преступником, скорее всего,
будет являться лицо, обучившее искусственный интеллект подобному поведе-
нию и использовавшее его как средство для совершения своего преступного де-
яния, если оно сделало это намеренно. В приведенном случае большинство экс-
пертов сходится во мнении, что пользователи, общавшиеся с ИИ, ненамеренно учили его противоправному поведению250.
Обобщая вышесказанное, получается, что система искусственного интел-
лекта — это компьютерная система или программа, имитирующая один или не-
сколько аспектов интеллектуального поведения, которая обладает высокой сте-
пенью самодетерминированности (автономности) и непрозрачности для разра-
ботчика или пользователя. Некоторые интеллектуальные системы способны
кобучению и самообучению.
Вэтой связи встает вопрос о том, кто будет привлечен к ответственности за вред, причиненный системой искусственного интеллекта. Ведь ни пользова-
тель, ни разработчик не имеют возможности понять текущее состояние такой системы. В отличие от, например, огнестрельного оружия, где дееспособному человеку понятны последствия нажатия на курок, при использовании интеллек-
туальных систем преступником результат может существенно отличаться от охватываемого его умыслом, при этом как в сторону увеличения негативного социального эффекта, так и в сторону уменьшения. Так как эффект от исполь-
зования ИИ непредсказуем, вряд ли можно говорить о том, что использование искусственного интеллекта как средства совершения преступления повышает общественную опасность преступного деяния и может быть в будущем исполь-
зовано в Уголовном кодексе как отягчающее обстоятельство.
250 Twitter taught Microsoft’s AI chatbot to be a racist asshole in less than a day // The Verge. URL: <https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist> (дата обращения: 5.10.2019).
204
Тем не менее некоторые категории преступлений ИИ действительно может сделать более общественно опасными как с точки зрения потенциального вре-
да, так и с точки зрения безнаказанности правонарушителя251.
Искусственный интеллект позволяет преступнику автоматизировать рабо-
ту, ранее требующую интеллектуальной вовлеченности человека. Мошенниче-
ство посредством рассылки электронных сообщений, в которой под тем или иным предлогом просят перевести деньги, например, в целях благотворитель-
ности или последующего обогащения. Эффективность такой неадресной рас-
сылки не очень высока и преступный результат достигается за счет большого охвата потенциальных жертв. Если применить искусственный интеллект, то можно выявить те или иные поведенческие и психологические особенности по-
тенциальной жертвы по данным, находящимся в открытом доступе (например,
социальные сети или странички сотрудников коммерческих организаций). Мо-
шенник, вооруженный интеллектуальной системой, сможет организовать мас-
совую рассылку с целью получения чужих денежных средств обманом, учиты-
вая слабости и предпочтения конкретных людей. Эта способность систем ис-
кусственного интеллекта уже несколько лет используется в легальных целях крупными интернет-компаниями для повышения эффективности интернет-
рекламы252. Реклама носит адресный характер и ее содержание и представле-
ние для конкретного интернет-пользователя зависит от анализа с помощью ИИ сетевой активности, профилей в социальных сетях и другой открытой ин-
формации.
Учитывая историю с чат-ботом Tai, описанную выше, преступник может создать подобную систему намеренно, для совершения преступления, оскорб-
ления или других деяний, ранее требующих вовлеченности человека. ИИ сдела-
ет это, учитывая особенности человека, и, соответственно, может нанести
251Дремлюга Р.И. Cистемы искусственного интеллекта как средство совершения преступления // Информационное право. 2019. № 1. С. 21–25.
252См. например: Jordan M.I., Mitchell T.M. Machine learning: Trends, perspectives, and prospects // Science. 2015. № 349 (6245). P. 255–260.
205
больший вред. Исходный код подобного рода программ можно легко найти в Интернете253 и подобная задача по силам школьнику254.
Другой преступной сферой применения систем искусственного интеллекта может стать использование автономных транспортных средств для совершения преступлений. Автономные летательные или наземные средства передвижения могут использоваться в нелегальном обороте наркотиков и оружия, вмешатель-
стве в частную жизнь и даже для совершения насильственных преступлений.
Особую угрозу представляет использования беспилотных средств для соверше-
ния терактов.
Автомобили с водителем уже используются для совершения террористиче-
ских актов и убийств. Например, известным примером является атака с помо-
щью автомобиля с водителем-смертником255. Как подчеркивают некоторые ав-
торы, «коммерческие грузовики и легковые автомобили все чаще используются террористами в Европе в качестве оружия для нападения на толпы пешехо-
дов»256. Вероятно, для отдельного преступника было бы слишком дорого и трудно достать и перепрограммировать беспилотный автомобиль. Следова-
тельно, это было бы не очень распространено среди отдельных преступников,
но для хорошо оснащенных и хорошо финансируемых террористических орга-
низаций это прекрасная возможность создать угрозу повсюду в мире.
Использование террористами в будущем автомобилей без водителя пред-
сказуемо в связи с тем, что они уже используют машины с водителями для со-
вершения массовых убийств. В случае полностью автономных автомобилей преступники получают дополнительную выгоду с точки зрения времени и цены подготовки. До появления беспилотного автотранспорта террористической ор-
253См. например: THE BEST OPEN SOURCE CHATBOT PLATFORMS IN 2019. URL: https://blog.verloop.io/the-best-open-source-chatbot-platforms-in-2019/ (дата обращения: 25.12.2019).
254См. например: URL: https://rb.ru/opinion/biznes-na-chat-botah/; https://habr.com/ru/post/ 346606/
255Дремлюга Р.И. Криминологическая характеристика терроризма в Индонезии // Азиатскотихоокеанский регион: Экономика, политика, право. 2014. Т. 16. № 1–2. С. 148–166.
256Hauer T., Huschitt N., Klein F. Patient care after terrorist attacks: Experiences from the Berlin Christmas market attack (19 December 2016) // Notfall und Rettungsmedizin. 2018. № 21(4).
P. 267–277.
206
ганизации необходимо было бы потратить много времени и ресурсов на подго-
товку одного террориста, а также тайно готовить операцию с высокими шанса-
ми на обнаружение и срыв257. Только вербовка состоит из 5 этапов258, и потен-
циальный террорист должен полностью разделять идеологические основы дея-
тельности своей организации. Люди — слабое звено в этой подготовке, они мо-
гут передумать или сдаться правоохранительным органам. Посредством ис-
пользования беспилотных летательных аппаратов террористические организа-
ции могут сразу же избавиться от всех вышеперечисленных трудностей.
Самой пугающей способностью ИИ, которая ставит под угрозу существу-
ющий и полагающийся на информацию мир, является возможность создания реалистичных информационных подделок в домашних условиях.
Речь о так называемом «DeepFake», то есть о замене определенных эле-
ментов изображения на желаемые образы с помощью искусственного интеллек-
та. Поскольку подделка такого рода является относительно новым явлением,
некоторые из ее применений не подпадают под действие Уголовного кодекса.
Например, достаточно распространено явление, когда в порноролик вставляют лицо известной актрисы, никогда не снимавшейся там259. Не до конца ясно, яв-
ляется ли это изготовлением порнографического материала.
Способность производства мошеннических данных предоставляет пре-
ступнику огромные возможности. Преступник может производить цифровой контент, способный ввести в заблуждение любого человека. Поскольку ИИ по-
тенциально дает возможность генерировать любую «фальшивую» информацию,
в скором времени нам придется столкнуться с новыми общественно опасными деяниями. В Интернете легко найти поддельные ролики, где какое-либо офици-
257 See for instance: Springer D.R., Regens J.L., Edger D.N. Islamic radicalism and global jihad, Publisher: Georgetown University Press. 2009. P. 133–144.
258Там же. С. 135.
259Deepfakes: порно, в которое нейросеть добавляет лица знаменитостей. Его запрещают все крупные сервисы, даже PornHub. URL: Meduza/ https://meduza.io/feature/2018/02/07/deepfakes- porno-v-kotoroe-neyroset-dobavlyaet-litsa-znamenitostey-ego-zapreschayut-vse-krupnye-servisy- dazhe-pornhub.
207
альное лицо говорит совсем не то, что говорит в действительности, а произно-
сит поддельную речь.
Анализ показывает, что благодаря некоторым характеристикам ИИ он мо-
жет стать очень популярным средством совершения преступления в крими-
нальном мире. Среди таких свойств мы и определили в этой части:
-способность систем ИИ раскрывать личную информацию (здоровье,
сексуальная ориентация, психологические особенности, слабости и т.д.), ис-
пользуя информацию из открытых источников;
-способность создавать поддельную видео, фото и аудиоинформацию;
-способность ИИ автоматически выбирать стратегию для получения большей вероятности ответа (или даже эмпатии) от жертвы;
-способность быть цифровым центром управления систем, предназна-
ченных для совершения актов насилия.
Виртуальная реальность. В технической литературе виртуальную реаль-
ность определяют как «созданный техническими средствами мир, передавае-
мый человеку через его ощущения: зрение, слух, обоняние, осязание и другие.
Виртуальная реальность имитирует как воздействие, так и реакции на воздей-
ствие»260. Например, если пользователь наденет шлем виртуальной реальности и использует программное обеспечение, имитирующие вождение гоночного ав-
томобиля на гоночной трассе, то перед собой он увидит технически смоделиро-
ванную визуализацию вида из кресла гоночного автомобиля. Управляя рулем,
которым он управляет в реальном мире, пользователь может воздействовать на объекты мира виртуального. Смоделированный видеоряд будет имитировать езду на гоночном автомобиле в соответствии с поворотами руля пользователем.
Несмотря на сложность определения термина «виртуальная реальность» можно выделить несколько императивных признаков, присущих данной техно-
логии. Во-первых, виртуальная реальность это модель или симуляция настоя-
щего или вымышленного мира (среды). Это отличает ее от другого термина до-
260 Скрыльникова А. Все, что нужно знать про VR/AR-технологии. URL: https://rb.ru/story/ vsyo-o-vr-ar/
208
полненная реальность, где в реальный мир вводятся конструируемые при по-
мощи компьютерных средств объекты261. Во-вторых, эта симуляция цифровая,
то есть смоделированная с помощью компьютера. В-третьих, такая симуляция создает ощущение реальности мира посредством устройств обратной связи, ре-
алистичности передвижений, полноты сконструированного мира или другими способами.
Следует отметить, что виртуальная реальность — это, прежде всего, новая среда социального взаимодействия в различных формах. В настоящее время преобладает использование данной технологии в игровых целях, растет попу-
лярность использования виртуальной реальности для рабочих совещаний и личных встреч262. Организации деловых встреч, многопользовательские ре-
жимы игры в виртуальной реальности означают аудио- и видеоконтакт между пользователями. В виртуальном мире зачастую человек виден другим пользова-
телям как антропоподобный аватар263, внешний вид которого определяется пользователем. Действия в цифровом пространстве посредством вербального и визуального контакта могут причинить реальный вред.
Некоторые авторы выделяют вербальные преступления в отдельную кри-
минологическую категорию. Содержательная часть объективной стороны вер-
бальных преступлений определяет способ совершения преступления в виде вербальных репрезентаций. Их можно признать и орудием, и средством дости-
жения преступного результата264.
С помощью технологии виртуальной реальности можно совершать широ-
кий круг преступлений от «клеветы» (ст. 128.1 УК РФ) до «публичных призы-
вов к осуществлению террористической деятельности или публичное оправда-
261Наиболее ярким примером является многопользовательская игра PokemonGo, в которую играет более 100 млн пользователей по всему миру. См.: например: Feldman B. Agencyandgovernance: Pokémon-Goandcontestedfuninpublicspace // Geoforum. 2018. № 96. P. 289–297.
262Perry T.S. Virtual reality goes social: Meeting people, not playing games, will be VR's killer app, 2016. IEEESpectrum. 53(1). 7367470. P. 56–57.
263В контексте использования в среде виртуальной реальности аватар — это трехмерное графическое представление пользователя ВР.
264Абызов Р.М., Землюков С.В. К вопросу о понятии вербального преступления // Российский следователь. 2014. № 24. С. 35.
209
ние терроризма». Обширное использование виртуальной компьютерной среды для социального взаимодействия порождает классическое противоречие между необходимостью свободного обмена информацией и расширения инструмента-
рия для этого как фактора экономического роста и потребностями на введение ограничений на свободное использование определенных видов информации как фактора безопасности государства и общества.
Уникальными характеристиками виртуальной реальности как средства до-
стижения преступного результата являются способность такой среды создавать иллюзию реалистичности у пользователя и возможность проявляться в виде по-
следствий в реальном мире.
Проведенные исследователями опыты показывают, что пользователи в виртуальной реальности могут бояться подходить к краю смоделированного высотного здания, демонстрируя такие же психоэмоциональные реакции, как будто это происходит в реальном мире. В качестве реакций на виртуальную вы-
соту исследователями были зафиксированы головокружение, тошнота, боли желудка и тремор рук265. Как отмечается в некоторых исследованиях, чувства,
вызванные происходящим в виртуальной реальности, могут иметь реальные физические последствия. Пользователь может быть буквально напуган до смер-
ти (по крайней мере, до состояния сердечного приступа) виртуальной игрой,
в которой чувствовал себя достаточно реально. Даже если пользователь физи-
чески не пострадал, для него это может быть тяжелым психотравмирующим испытанием, которое сложно воссоздать в Интернете или в видеоигре без ис-
пользования виртуальной среды266.
Реалистичность виртуальных сред имеет и свое позитивное применение,
например, есть успехи по их использованию для борьбы с наркозависимо-
265Liat Clark, Walking the Plank with the Oculus Rift is Stomach-Churning Stuff, WIRED UK (May, 30, 2013). URL: http://www.wired.co.uk/article/oculus-vr
266Lemley Mark A., Volokh E. Law, Virtual Reality, and Augmented Reality (February 27, 2018). University of Pennsylvania Law Review, Vol. 166, 2018, Forthcoming; Stanford Public Law Working Paper No. 2933867; UCLA School of Law, Public Law Research Paper No. 17-13. URL: https://ssrn.com/abstract=2933867 orhttp://dx.doi.org/10.2139/ssrn.2933867
210