Наша компания оказывает помощь по написанию статей по предмету Уголовное право. Используем только актуальное законодательство, проекты федеральных законов, новейшую научную литературу и судебную практику. Предлагаем вам воспользоваться нашими услугами. На все выполняемые работы даются гарантии
Вернуться к списку статей по юриспруденции
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И УГОЛОВНОЕ ПРАВО: ПРИЕМЛЕМ ЛИ ПАЛИНГЕНЕЗИС В УСЛОВИЯХ ЦИФРОВИЗАЦИИ?
В.В. ХИЛЮТА
Введение. В последнее время в доктрине уголовного права все настойчивее продвигается тезис о том, что уголовное право находится в глубоком кризисе и этот кризис обусловлен в том числе нежеланием уголовного права следовать глобальным политическим и социальным процессам, трансформировать свои институты в условиях тотальной цифровизации общества. Научно-технический прогресс ставит на повестку дня вопрос о модернизации общественных отношений и реформировании основ их правового регулирования, однако уголовное право в данном вопросе продолжает сохранять консервативную модель охраны общественных отношений.
Между тем научно-технический прогресс не может не оказывать влияния на содержание уголовного права и его институтов <1>. В связи с этим, как нередко указывается в правовой литературе, наше настоящее, подверженное колоссальному влиянию экспоненциальных и комбинаторных технологических изменений, позволяет предположить, что будущее предстанет чем-то совершенно иным. Как никогда ранее ощущается, что технологии обратного проектирования человеческого мозга приведут к созданию искусственного интеллекта (далее - ИИ) и, соответственно, к появлению "разумных машин", а также обеспечат продолжение жизни человека в цифровой форме. Это станет точкой невозврата, когда наши тела перестанут быть центром нашей идентичности <2>.
--------------------------------
<1> См.: Кибальник А.Г., Волосюк П.В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Вестник Нижегородской академии МВД России. 2018. N 4. С. 174.
<2> См.: Русскевич Е.А., Дмитренко А.П., Кадников Н.Г. Кризис и палингенезис (перерождение) уголовного права в условиях цифровизации // Вестник Санкт-Петербургского университета. Право. 2022. Т. 13. N 3. С. 586.
В настоящее время нет особой нужды доказывать тот факт, что ИИ приобретает огромное значение в жизни многих людей и государства в целом. Сегодня ИИ имеет значительные, если не самые большие, преимущества для задач общественного развития и приумножения социальных благ. Более того, ИИ в ряде случаев начинает превосходить человека, и его потенциал достаточно высок <3>. Но очевидно также и то, что деятельность ИИ может объективно являться общественно опасной и ИИ способен причинить вред охраняемым сегодня отношениям.
--------------------------------
<3> Однако в связи с этим можно приводить множество примеров, когда те либо иные технологии использовались не во благо, а во зло или требовали такой организационно-управленческой инфраструктуры, которая в значительной степени не отвечала требованиям эффективности с точки зрения приумножения каких-либо благ. Поэтому о степени важности ИИ говорить пока рано.
Искусственный интеллект: сущность технологии и правовой статус. Искусственный интеллект - это термин, используемый в вычислительной технике для описания способности компьютерной программы выполнять задачи, связанные с человеческим интеллектом, такие как рассуждение и обучение. Он также включает такие процессы, как адаптация, сенсорное понимание и взаимодействие. Традиционные вычислительные алгоритмы представляют собой программы, которые следуют набору правил и последовательно выполняют одну и ту же задачу. В то же время система ИИ изучает правила (функцию) посредством воздействия обучающих данных (ввода). В этом качестве ИИ рассматривается как новая теория развития компьютерных систем, способных выполнять задачи, обычно подвластные человеку, такие как визуальное восприятие, распознавание речи, принятие решений, перевод языков и т.п.
ИИ обычно реализуется как система, состоящая как из программного, так и аппаратного обеспечения. С точки зрения программного обеспечения ИИ в основном связан с алгоритмами. Искусственная нейронная сеть является концептуальной основой для разработки алгоритмов ИИ. Это модель человеческого мозга, состоящая из взаимосвязанной сети нейронов, соединенных взвешенными каналами связи.
Тем не менее предложить четкое определение ИИ в настоящее время не представляется возможным из-за сложностей понимания его сущности и множества концепций ИИ. Большинство современных подходов к применению ИИ касается области когнитивного интеллекта, т.е. логики, планирования, решения технических проблем и т.д. Однако наибольшую перспективу сегодня приобрели символический и нейронный подходы к пониманию ИИ.
Символический подход к обоснованию ИИ считается классическим. Суть его зиждется на идее, что человеческое мышление может быть реконструировано независимо от конкретных эмпирических ценностей с вышестоящего логико-концептуального уровня (нисходящий подход). Нейронный ИИ основан на идее скрипта человеческого мозга, где знания сегментируются на крошечные функциональные единицы, искусственные нейроны, которые объединяются во все большие группы (подход buttom-up). В результате получается многогранная сеть искусственных нейронов. В данном случае нейронный ИИ пытается максимально точно смоделировать функциональный принцип работы мозга и искусственно смоделировать его нейронные сети. В отличие от символического ИИ, нейронная сеть "обучается" в робототехнике (например, с сенсомоторными данными). Из этого опыта ИИ генерирует свои постоянно растущие знания и идеи <4>.
--------------------------------
<4> См.: Broadhurst R., Brown P., Maxim D., Trivedi H., Wang J. Artificial Intelligence and Crime. Report of the Australian National University Cybercrime Observatory for the Korean Institute of Criminology. Canberra, 2019. P. 1 - 70.
Итак, по мере того как системы ИИ становятся все более привлекательными, а также играют заметную роль в жизни современного общества и государства, все настойчивее звучат аргументы о наделении ИИ некой особой формой (ограниченной) правосубъектности. Основные доводы здесь сформулированы в инструментальных терминах и имеют большое сходство с правовым статусом юридических лиц. В этих аргументах вынашивается идея о том, что по мере того, как системы ИИ приближаются к точке неотличимости от людей, они должны иметь право на статус, сопоставимый с физическими лицами. То есть если ИИ реально овеществлен (материализован), обладает способностью к анализу и составлению поведенческого алгоритма, то он должен быть наделен некой новой формой правосубъектности <5>.
--------------------------------
<5> См.: Хисамова З.И., Бегишев И.Р. Сущность искусственного интеллекта и проблема определения правосубъектности // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2020. N 2. С. 100.
Вместе с тем если речь идет о правосубъектности ИИ, то подходы к моделированию этого статуса могут быть различны, начиная от правосубъектности, аналогичной статусу физического или юридического лица, и заканчивая особой - ограниченной правосубъектностью ИИ. Последняя форма представляется для многих специалистов более приоритетной, так как "человек, обладая правовым статусом, действует на основании мыслительных процессов, руководствуясь субъективными убеждениями. За действиями юридического лица также стоят физические лица, без которых деятельность юридического лица невозможна. ИИ, в свою очередь, действует самостоятельно, не обладая сознанием или чувствами" <6>. Таким образом, речь в данном случае может идти лишь об очередной фикции.
--------------------------------
<6> Хисамова З.И., Бегишев И.Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13. N 4. С. 570.
Как видно, в этом вопросе правосубъектность ИИ отождествляется с его функционально-целевым назначением. Однако следует помнить, что ИИ лишен правовой воли по определению. Здесь интересы ИИ органично переплетаются с интересами его разработчиков и создателей, собственников и пользователей, и именно эти интересы физических лиц предопределяют функциональную часть ИИ. Но в то же время ИИ не формирует и не определяет социально-правовые ценности.
Искусственный интеллект и общие положения об уголовной ответственности. Вопрос об уголовной ответственности ИИ имеет значение и приобретает особую актуальность лишь тогда, когда речь идет об отдельной (самостоятельной) уголовной ответственности для ИИ вне его связи с человеком. Постановка вопроса именно таким образом в корне меняет основы уголовного права и смещает его контуры, в частности, когда мы рассуждаем о субъекте преступления и субъективной стороне.
Если же речь идет о том, что за ИИ всегда стоит человек, то именно он (человек) должен нести уголовную ответственность в рамках существующих правил уголовного права. В данном случае ИИ может использоваться как средство или способ совершения различных умышленных преступлений, выступать в качестве предмета преступления или предмета преступного воздействия и т.д. Подобные ситуации не вызывают принципиальных споров с точки зрения правовой оценки и квалификации совершенных преступлений. Потому если разработчик программы (программист либо иной создатель) или владелец ИИ использует его в качестве средства для совершения любого умышленного преступления, то он должен нести уголовную ответственность в полном объеме как за опосредованное преступление.
Большая сложность возникает, когда речь идет о неосторожных преступлениях, совершаемых с использованием ИИ, и о попытке привлечь к ответственности разработчиков, владельцев, пользователей программ ИИ и других лиц. Основная проблема состоит в характере преступной небрежности и оценке того, каким образом обвиняемое лицо должно было и могло предвидеть те последствия, которые возникнут в результате совершения противоправных действий ИИ.
Здесь необходимо иметь в виду, что система, которая обрабатывает информацию и учится ее анализировать, может действовать так, как ее создатели не могли предсказать, и в этом отношении предсказуемость имеет решающее значение для современных правовых подходов к оценке преступной небрежности. Более того, такие роботизированные системы могут функционировать независимо от своих создателей или операторов, а это усложняет задачу определения ответственности для физических лиц (разработчиков и создателей ИИ, пользователей и владельцев ИИ). Все это открывает новый пласт проблем, которые связаны с предсказуемостью и способностью ИИ действовать независимо от человека, и это имеет решающее значение при обсуждении вопроса об уголовной ответственности <7>.
--------------------------------
<7> См.: Антонова Е.Ю. Технологии искусственного интеллекта - субъект преступления или орудие/средство совершения преступления? // Юридический вестник Кубанского государственного университета. 2022. N 1. С. 33 - 37.
Однако все эти вопросы имеют второстепенное значение по сравнению с тем, что если субъектом уголовной ответственности признавать исключительно ИИ и к нему применять меры уголовно-правового воздействия (наказания), то тогда вполне возможно говорить об уголовной ответственности ИИ. Понятно, что в данном вопросе невозможно апеллировать привычными конструкциями субъективной стороны состава преступления, так как у ИИ нет психики и по этому основанию уголовная ответственность априори невозможна.
Тем не менее если принять во внимание положения уголовного закона об ответственности юридических лиц, которые существуют во многих странах мира, то по аналогии можно говорить об уголовной ответственности ИИ. Ведь даже если отечественное уголовное право не знает института уголовной ответственности юридического лица, то в административно-деликтном законодательстве такие положения вполне успешно применяются. И здесь никто не говорит о вине юридического лица. Подобным образом вопрос о вине ИИ не будет возникать, потому как ИИ будет признаваться не субъектом преступления, а субъектом уголовной ответственности.
Однако проводить аналогию с юридическим лицом в данном случае весьма проблематично по ряду обстоятельств. Главный аргумент заключается в том, что действия юридических лиц всегда связаны с действиями физического лица (или группы людей, даже если невозможно точно определить, кто эти лица). Другими словами, ответственность юридических лиц всегда связана с действиями, совершаемыми их сотрудниками или представителями. Более того, юридические лица привлекаются к уголовной ответственности только в том случае, если установлено физическое лицо, совершившее противоправное действие от имени юридического лица. Действия же систем, основанных на ИИ, не обязательно могут отвечать подобным критериям, поскольку ИИ может автономно принимать решения и действовать в рамках их реализации <8>. С этой точки зрения исследователями все чаще стали выдвигаться предложения относительно прямой ответственности ИИ. Согласно этой позиции сегодня нет никаких фундаментальных причин, по которым автономные системы не должны нести юридическую ответственность за свои действия. Вопрос заключается только в желательности введения такого рода ответственности.
--------------------------------
<8> См.: Лолаева А.С., Сакаева К.У. Искусственный интеллект: правовые и этические аспекты // Юридические исследования. 2021. N 8. С. 66 - 67.
Аргументы "против" уголовной ответственности искусственного интеллекта и контуры новых проблем. В основном доводы относительно того, что ИИ, как и юридические лица, не может быть субъектом преступления, касаются того, что у ИИ нет вины, т.е. отсутствует субъективная сторона состава преступления. ИИ лишен возможности осознавать, предвидеть и желать наступления определенных последствий. По этой же причине вряд ли можно вести речь о том, что он должен и может предвидеть определенные обстоятельства от своих действий и т.д.
Отсутствие фактических психических состояний становится очевидным, если учесть, что понимание ИИ определенного символа (т.е. концепции) ограничено его обоснованием происходящих действий на дальнейших синтаксических символах <9>, что делает mens rea неприменимым в данных условиях. Сегодня нет такого критерия, который мог бы измерить наличие mens rea в действиях или упущениях робота (ИИ). Этот психический элемент вины применим только для физического лица, совершающего какое-либо противоправное деяние. Для ИИ нельзя применить существующую формулу знания (незнания) о результате своего действия или выводить характеристику способности понимать сущность и характер деяния, образующие в последующем определенное намерение ИИ и т.д. <10>. ИИ действует на основе алгоритмов и программ, которыми манипулируют на основе входных данных. Понятно, что в такой парадигме ИИ - это эфемерное человеческое изобретение - фикция, и он не может признаваться субъектом преступления. У такого технического устройства нет и не может быть многих человеческих компонентов. Информация и анализ информации в различных сегментах и интерпретациях не могут заменить собой чувства, волю, эмоции и те психические процессы, которые происходят в любом человеке.
--------------------------------
<9> См.: Taddeo M., Floridi L. Regulate artificial intelligence to avert cyber arms race // Nature. 2018. No. 556. Р. 296 - 298.
<10> Отчасти данный тезис оспаривается, и не без оснований. Указывается, что не за горами время, когда такую формулу (знания - незнания) применить к ИИ станет в принципе возможно.
В англосаксонской правовой системе по этому поводу обращается внимание на то, что в большинстве уголовных преступлений и правонарушений душевное состояние делинквента становится определяющим фактором для судов при вменении юридической ответственности. Тем не менее, когда задействован ИИ, возникает резонный вопрос: как определить его "состояние ума"? В тех случаях, когда "состояние ума" становится актуальным, судьи уже давно используют критерий "разумного человека" при определении того, действовал ли соответствующий человек объективно разумным образом, и в этом отношении тест разумного человека для ИИ неприемлем <11>.
--------------------------------
<11> См.: White P.J., Podaima B.W., Friesen M.R. Algorithms for Smartphone and Tablet Image Analysis for Healthcare Applications // IEEE Access. 2014. Vol. 2. P. 831 - 840.
Более того, привлечение ИИ к единоличной ответственности выглядит нецелесообразным, поскольку это позволит фактически избежать ответственности физических лиц, которые реально стоят за ИИ. Поэтому все больший нарратив в последнее время получает тезис о том, что идея введения уголовной ответственности ИИ - это продукт его создателей, пользователей и разработчиков алгоритмизированных программ, преследующих цель обезопасить себя в первую очередь и снять возможные риски претерпевания неблагоприятных ситуаций в будущем. Такое лицо всегда может спрятаться за ИИ и использовать правосубъектность ИИ в качестве своеобразного обстоятельства (щита), исключающего уголовную ответственность.
Идея присвоить искусственному интеллекту собственную правосубъектность и возложить на него ответственность за любой понесенный вред (ущерб) в итоге основана на ложном понимании технологических взаимозависимостей такого электронного лица (ИИ). С технической точки зрения допустимый вред в данном случае обычно обусловлен тремя основными проблемами, которые отнюдь не являются результатом преднамеренного или небрежного поведения абсолютно автономной системы ИИ, а выявляют действия человека. Этот вред может быть обусловлен (1) неправильно заложенными данными в ИИ, (2) неправильными процессами принятия решений ИИ на основе заложенных данных, (3) повреждениями, вызванными сбоем оборудования. Все эти случаи технологических ошибок показывают, что вред (ущерб), вызванный действиями ИИ, в значительной степени обусловлен действиями человека, и именно он должен нести гражданско-правовую и уголовную ответственность за действия ИИ и возмещать причиненный вред (ущерб).
Следовательно, если предположить, что мы будем иметь дело и с такими случаями, когда ИИ будет сам принимать решения и это обстоятельство modus operandi исключает любое вмешательство человека, все равно следует исходить из того, что ИИ создан человеком и в этом отношении он подразумевает определенное пространство для ошибок. Все наборы данных, введенные в алгоритмы ИИ для получения результатов, являются человеческими данными; это означает, что они уже содержат человеческую предвзятость, которая затем проявляется в результатах ИИ <12>. Поэтому именно человек должен нести уголовную ответственность за действия ИИ, вне зависимости от того, что ИИ сам, по своей инициативе принимал какое-либо решение и реализовывал его.
--------------------------------
<12> См.: Nilsson N.J. The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge, 2009. P. 19 - 21.
В то же время, даже если исходить из того, что ИИ имеет возможность самостоятельно принимать определенные решения и реализовывать их помимо воли человека, следует обратить внимание на условность такого процесса. Дело в том, что в процессе приобретения способности принимать автономные решения ИИ на основе заданных разработчиками алгоритмов анализирует, синтезирует, сравнивает, индуцирует, выводит и использует другие когнитивные методы, связанные со всем объемом поступающей информации, но не способен воспринимать принятое им решение и полную (неполную) операцию <13>. Исходя из этого и делается вывод о том, что ИИ в настоящее время не имеет никаких психических процессов, не обладает способностью ощущать внутренние эмоции и выдавать их за внешние проявления своей функциональности. Поэтому ИИ не может быть признан виновным (в уголовно-правовом аспекте) в совершении преступления, хотя формально он может выступать в качестве квазисубъекта преступного поведения.
--------------------------------
<13> См.: Lopashenko N.A., Kobzeva E.V., Rozhavskiy Z.D. Artificial Intelligence and Criminal Law Risks // State and Law in the Context of Modern Challenges. 2022. Vol. 122. European Proceedings of Social and Behavioural Sciences. P. 398 - 404.
Соответственно, тезис о невозможности признания ИИ субъектом преступления будет оставаться актуальным до тех пор, пока некий ИИ техногенного производства не будет объявлен способным испытывать как биомеханические, так и биохимические реакции, которые впоследствии классифицируются как психические процессы. До устранения этого препятствия разработчик (физическое лицо, группа лиц) или юридическое лицо и конечный пользователь должны нести ответственность за правонарушения, совершенные аппаратно-программным комплексом ИИ, в зависимости от степени его вины.
Тем не менее исследования в данной области поставили на повестку дня вопрос о возможности применения доктрины коллективной (взаимной) вины в уголовном праве. Это связано с тем, что при разработке ИИ задействованы многие лица (математики, программисты, тестировщики, нейрофизиологи и др.) и установить вину каждого человека в цепочке причинно-следственной связи не всегда представляется возможным. Каждое из этих лиц выполняет свою роль в создании той или иной компьютерной программы, взаимодействие компонентов которой не всегда может быть корректным. Поэтому, как полагает А.Л. Савенок, установить точную причинную связь между действием конкретного лица и наступившими общественно опасными последствиями весьма сложно. Более того, в силу отсутствия полной прозрачности алгоритмической базы невозможен внешний аудит выбора ИИ того или иного варианта "поведения" <14>.
--------------------------------
<14> См.: Савенок А.Л. Пределы уголовно-правового регулирования применения технологий искусственного интеллекта // Предварительное расследование. 2022. N 2. С. 21.
В этом случае возникает дилемма вины, которая и предопределяет степень предвидения виновного лица, характер его долженствования и т.д. Можно ли в данном случае говорить о том, что разработчики определенных технологий функционирования ИИ могли (и должны были) предвидеть определенные ошибки и совершаемые в последующем противоправные действия ИИ в рамках заложенных изначально алгоритмов вкладываются в понятие преступной небрежности? Ведь если в этом случае ИИ развивается самостоятельно и больше не связан с алгоритмами его разработчиков, то всегда можно сослаться на novus actus interveniens (привходящие причины), поскольку разум ИИ мог нарушить цепочку причинно-следственных связей в том смысле, что вклад разработчиков в создание ИИ больше не является эффективной и доминирующей причиной неправильного поведения ИИ. Предугадать, как будет действовать машина в этом случае, невозможно.
Аргументы "за" уголовную ответственность искусственного интеллекта и новая модель уголовного права. В свете вышеизложенного вполне понятно, что вопрос об уголовной ответственности ИИ весьма непростой и в большей степени связан с определенной конъюнктурной ситуацией, которая складывается вокруг ИИ. Если ИИ будет наделен правосубъектностью (электронной личностью), то вопрос о привлечении ИИ к ответственности станет делом времени.
В этом контексте сторонники введения уголовной ответственности для ИИ исходят из того, что уголовное право является наиболее эффективным способом социального контроля в нашей человеческой цивилизации и по этой причине оно может быть использовано в качестве эффективного инструмента проверки негативного влияния ИИ на наше общество <15>. Подчинение ИИ уголовному законодательству порождает уникальную ситуацию, которая основана в большей степени на подходе общества к ИИ, поскольку хотя ИИ закладывает новые парадигмы в технологическом мире, но это всего лишь компьютерный программный продукт. Исходя из этого, решением рассматриваемой проблемы является признание ИИ электронным (цифровым) или квазиюридическим лицом (личностью) в праве. Обоснование данного постулата лежит в той плоскости, что в когнитивной науке есть доказательства "вычислительной" природы человеческого интеллекта, и поэтому человеческий разум в принципе может быть смоделирован как программа, работающая на компьютере <16>.
--------------------------------
<15> См.: Solaiman S.M. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy // Artificial Intelligence and Law. 2017. Vol. 25. No. 2. P. 155 - 179.
<16> См.: Balkin J.M. Free speech in the algorithmic society: Big data, private governance, and new school speech regulation // U.C. Davis Law Review. 2018. No. 51 (3). P. 1149 - 1210.
Сказанное свидетельствует: уже сегодня некоторые исследователи выступают за привлечение ИИ к прямой (строгой) ответственности, основываясь на том, что "процесс анализа в системах ИИ аналогичен человеческому пониманию" <17>, который следует отождествлять таким образом, что любая система может рассматриваться в практических целях, как если бы она обладала психическими состояниями. Более того, обращается внимание и на то, что ИИ может делать многие вещи "по своей воле", например, у него также могут быть предрассудки, как и у людей; ИИ может размножаться, изучать новую информацию и обрабатывать эту информацию без помощи человека, создавать новые материальные и нематериальные объекты, юридические лица; ИИ может принять решение установить цель и поразить эту цель собственными решением и силами. По этой причине, в случае если искусственные роботы и другие автономные средства имеют человеческие характеристики, ИИ потенциально носит в себе концепцию человека. С этой точки зрения, если процессы принятия самостоятельных решений ИИ становятся неизбежными, существует риск невозможности ответа на вопрос о том, какое физическое лицо считать виновным в совершении противоправного деяния, реализованного исключительно ИИ.
--------------------------------
<17> Hallevy G. Unmanned vehicles - Subordination to criminal law under the modern concept of criminal liability // Journal of Law, Information and Science. 2012. No. 21. P. 200 - 211.
Вместе с тем если мы признаем тот факт, что "цифровая личность" и ИИ являются самостоятельными носителями интеллектуально-волевых качеств человека, т.е. полноценными субъектами права, то это означает, что они должны признаваться и субъектами уголовной ответственности. В этом аспекте теория уголовного права о субъекте преступления должна перейти на принципиально новый этап развития, когда субъектом преступления будет признаваться не только физическое или юридическое лицо, но и клон физического лица в цифровой форме, а также небиологический субстрат человека с искусственным интеллектом <18>.
--------------------------------
<18> См.: Бегишев И.Р. Уголовно-правовая охрана общественных отношений, связанных с робототехникой: автореф. дис. ... д-ра юрид. наук. Казань, 2022. С. 39.
Тем не менее представляется, что если принять данную точку зрения и далее рассуждать об уголовной ответственности ИИ, то за основу в данном вопросе нельзя принимать модель уголовной ответственности юридических лиц, функционирующую в ряде западноевропейских государств. Применительно к ИИ вообще вряд ли стоит проводить какие-либо аналогии и репродуцировать мир вещей на цифровой мир. И если вести речь об уголовной ответственности "цифровой личности", то эта модель ответственности должна строиться на совсем иных постулатах, нежели существующая. Вина в данном случае не может лежать в основании уголовной ответственности. Речь может идти только об уголовной ответственности ИИ при отсутствии вины.
Эта проблема ставит вопрос о создании параллельного уголовного права для ИИ, где мы уже говорим только об уголовной ответственности за деяние, совершенное цифровой личностью. Вопрос о виновности таких лиц не ставится вообще, а если рассуждать о мерах уголовно-правового воздействия к таким цифровым (электронным) личностям, то к ИИ могут применяться такие меры, как деактивация, перепрограммирование, запрет на осуществление любой деятельности, снятие с производства, наделение статусом преступника и т.д.
В этом отношении интересный подход к рассматриваемой проблеме можно обнаружить в доктрине англосаксонского права, где, учитывая вышеизложенное, субъектом уголовной ответственности предлагается признавать не ИИ, а юридическое лицо, которое является владельцем ИИ и предоставляет ИИ возможность самостоятельно выполнять возложенные на него задачи и реализовывать запрограммированные функции <19>. Однако и в данном случае остается открытым вопрос относительно операторов и иных лиц, держащих под контролем заданный изначально алгоритмизированный процесс. За любым ИИ или юридическим лицом, как бы там ни было, стоит человек.
--------------------------------
<19> См.: Scherer M.U. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies // Harvard Journal of Law and Technology. 2015. Vol. 29. No. 2. P. 353 - 400.
Между тем исследователи указывают на то, что появление технологии эмуляции биологического мозга человека означает возможность существования совершенно новой формы жизни, когда понятие о человеке больше не связано с его биологической оболочкой, что порождает еще одну следующую проблему. Понятно, что эта жизнь в облаке потребует такой же уголовно-правовой защиты, как и в реальном физическом мире, поскольку здесь мы имеем дело не просто с компьютерным кодом, а с человеком. В результате такого подхода придется пересмотреть концепцию потерпевшего от преступления и распространить действие традиционных уголовно-правовых запретов (об убийстве, о похищении человека, торговле людьми, клевете и др.) на все посягательства против "цифровой личности". Момент наступления смерти человека потеряет свое исключительно биологическое определение, получив дополнительное содержание в том, что в настоящее время именуется заурядным уничтожением компьютерной информации <20>. То есть ИИ можно будет и убить!
--------------------------------
<20> См.: Русскевич Е.А., Дмитренко А.П., Кадников Н.Г. Указ. соч. С. 592.
Заключение, или Кратко о сценариях развития уголовного права применительно к ИИ. В настоящее время мы исходим из тех базовых положений, что уголовное право антропоцентрично. И как бы мы ни относились к классической школе уголовного права, консервативная модель функционирования уголовного права все еще продолжает сохранять свою идентичность, основываясь на фундаментальном положении о том, что преступление может совершить только человек, в действиях которого установлена вина.
Признание ИИ субъектом уголовной ответственности все-таки производно от решения вопроса о том, может ли ИИ вообще быть субъектом права. Если следовать классическим канонам школы уголовного права, то, конечно, ИИ не обладает волей, у него нет своего интереса, нет чувства вины и эти "цифровые личности" не способны формировать субъективное отношение к совершаемым деяниям, какими бы они ни были.
Тем не менее концепция "Уголовное право 2.0" (иными словами, цифровое уголовное право) не столько базируется на смене существующей парадигмы функционирования уголовного права в лоне парадигмы criminal matter, сколько основана на пересмотре признаков преступления. То есть в такой парадигме уголовное право призвано будет вобрать в себя как преступления, так и любые правонарушения, а равно всевозможные проступки. Это означает уход от общественной опасности и смещение акцентов в сторону противоправности, расширения диспозитивных начал в уголовном праве "широкого типа", профилактических мер воздействия и усиления штрафных санкций. Подобная либеральная модель зиждется на широком понимании сути публичного проступка (как преступления, так и правонарушения), в основе которой лежит идея именно уголовной ответственности (а не личной виновной ответственности), где принцип личной виновной ответственности вообще не имеет никакого принципиального значения, поскольку возможна уголовная ответственность и при отсутствии вины. Отсюда становятся понятными положения об уголовной ответственности корпоративных образований, искусственного интеллекта и т.д. Такое возможно в случае, когда наряду с принципом личной виновной ответственности можно будет говорить об уголовной ответственности искусственных формирований, которые не будут признаваться субъектами преступлений, но будут являться субъектами уголовной ответственности, что потребует разработки иной модели уголовной ответственности (фактически двойной: для физических лиц и для лиц юридических или искусственных образований). Тогда уголовное право будет существовать в двух реальностях: обыденной и цифровой. Однако представляется, что за этим процессом кроется иная подоплека, и отчасти она состоит в переложении ответственности физических лиц на иные образования (юридические или цифровые).
Наделение ИИ правосубъектностью и признание ИИ субъектом ответственности поставит человека в заложники своих собственных идей. Человек отчасти станет зависимым от электронного существа. Но надо иметь в виду, что ИИ - это лишь посредник, квазиагент человека и по своей правовой сути ИИ не может нести полную ответственность за свои посреднические действия <21>.
--------------------------------
<21> По этой причине в статье остался нераскрытым вопрос о делении ИИ на "слабый" и "сильный", о межотраслевых связях уголовного права и иных отраслей в деле разрешения проблемы ответственности ИИ и т.д. Однако сегодня этот вопрос имеет второстепенное значение и не может быть разрешен в полной мере, ибо пока не ясен статус ИИ.
Представляется, что для уголовного права более значимым в этом направлении является иной вопрос, который касается пределов уголовной ответственности за деяние, совершаемое ИИ, при констатации неосторожной формы вины со стороны его разработчиков (изобретателей, конструкторов) и создателей, пользователей, операторов и владельцев. Здесь ситуации могут быть самыми разнообразными и вред от действий ИИ может быть причинен вследствие сбоев в программном обеспечении, программных ошибок, заложенных в систему обеспечения деятельности ИИ, несоблюдения работниками правил эксплуатации и техники безопасности при охране труда. Могут быть и иные варианты, когда вред причиняется вследствие небрежного поведения человека, и тогда мы говорим уже о казусе (случае).
Вопрос главным образом будет заключаться в том, сделал ли разработчик ИИ все возможное для исключения ситуации, связанной с противоправным поведением ИИ, а иные лица при этом не нарушили правила эксплуатации системы. То есть речь идет о том, что лицо должно было предусмотреть возможность развития ситуации определенным образом и, руководствуясь этим, принять меры по недопущению потенциально опасной деятельности ИИ. В ситуации, когда ИИ сам будет принимать решения вне зависимости от ранее заложенных алгоритмов и выполнять определенные действия (которые и приведут к причинению вреда), усмотреть в действиях разработчиков (изобретателей, конструкторов, программистов) признаки грубой небрежности не представится возможным. Речь в дальнейшем может идти только о гражданско-правовой ответственности, связанной с возмещением причиненного вреда его владельцем.
В то же время, моделируя разные ситуации, связанные с причинением вреда ИИ и допустимостью наложения уголовной ответственности на физических лиц (разработчиков, программистов, создателей, пользователей, собственников и др.) в случае преступной небрежности, мы все же говорим не столько о различном понимании и оценке ситуаций, связанных с деятельностью ИИ, сколько о нетождественном понимании характера предвидения и элементе его долженствования. Но законодательное указание в существующей концепции вины при небрежности на нормативный элемент, состоящий в том, что виновный должен был и мог предвидеть возможность наступления общественно опасных последствий, характеризует небрежность больше как оценочное понятие, которое выходит за рамки формально-психологических признаков. И в действительности мы наказываем лицо не за последствия, а за действия, их вызвавшие. Это положение необходимо учитывать не только правоприменителю, но и законодателю при конструировании уголовно-правовых норм в будущем <22>. Вопрос состоит только в том, каким образом это необходимо будет сделать.
--------------------------------
<22> Такая постановка вопроса породит проблему экстраполяции системы ответственности, однако не в разрезе "разработчик - ИИ", а в плоскости границ разумного предвидения действий ИИ его создателями. См.: Хилюта В.В. Преступная небрежность и ее содержательные признаки в контексте психологической теории вины // Право.by. 2022. N 3. С. 65 - 73.
Список литературы
1. Balkin J.M. Free speech in the algorithmic society: Big data, private governance, and new school speech regulation // U.C. Davis Law Review. 2018. No. 51 (3).
2. Broadhurst R., Brown P., Maxim D., Trivedi H., Wang J. Artificial Intelligence and Crime. Report of the Australian National University Cybercrime Observatory for the Korean Institute of Criminology. Canberra, 2019.
3. Hallevy G. Unmanned vehicles - Subordination to criminal law under the modern concept of criminal liability // Journal of Law, Information and Science. 2012. No. 21.
4. Lopashenko N.A., Kobzeva E.V., Rozhavskiy Z.D. Artificial Intelligence and Criminal Law Risks // State and Law in the Context of Modern Challenges. 2022. Vol. 122. European Proceedings of Social and Behavioural Sciences.
5. Nilsson N.J. The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge, 2009.
6. Scherer M.U. Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies // Harvard Journal of Law and Technology. 2015. Vol. 29. No. 2.
7. Solaiman S.M. Legal personality of robots, corporations, idols and chimpanzees: a quest for legitimacy // Artificial Intelligence and Law. 2017. Vol. 25. No. 2.
8. Taddeo M., Floridi L. Regulate artificial intelligence to avert cyber arms race // Nature. 2018. No. 556.
9. White P.J., Podaima B.W., Friesen M.R. Algorithms for Smartphone and Tablet Image Analysis for Healthcare Applications // IEEE Access. 2014. Vol. 2.
10. Антонова Е.Ю. Технологии искусственного интеллекта - субъект преступления или орудие/средство совершения преступления? // Юридический вестник Кубанского государственного университета. 2022. N 1.
11. Бегишев И.Р. Уголовно-правовая охрана общественных отношений, связанных с робототехникой: автореф. дис. ... д-ра юрид. наук. Казань, 2022.
12. Кибальник А.Г., Волосюк П.В. Искусственный интеллект: вопросы уголовно-правовой доктрины, ожидающие ответов // Вестник Нижегородской академии МВД России. 2018. N 4.
13. Лолаева А.С., Сакаева К.У. Искусственный интеллект: правовые и этические аспекты // Юридические исследования. 2021. N 8.
14. Русскевич Е.А., Дмитренко А.П., Кадников Н.Г. Кризис и палингенезис (перерождение) уголовного права в условиях цифровизации // Вестник Санкт-Петербургского университета. Право. 2022. Т. 13. N 3.
15. Савенок А.Л. Пределы уголовно-правового регулирования применения технологий искусственного интеллекта // Предварительное расследование. 2022. N 2.
16. Хилюта В.В. Преступная небрежность и ее содержательные признаки в контексте психологической теории вины // Право.by. 2022. N 3.
17. Хисамова З.И., Бегишев И.Р. Сущность искусственного интеллекта и проблема определения правосубъектности // Вестник Московского государственного областного университета. Серия: Юриспруденция. 2020. N 2.
18. Хисамова З.И., Бегишев И.Р. Уголовная ответственность и искусственный интеллект: теоретические и прикладные аспекты // Всероссийский криминологический журнал. 2019. Т. 13. N 4.
Наша компания оказывает помощь по написанию курсовых и дипломных работ, а также магистерских диссертаций по предмету Уголовное право, предлагаем вам воспользоваться нашими услугами. На все работы дается гарантия.