Наша компания оказывает помощь по написанию статей по предмету Уголовное право. Используем только актуальное законодательство, проекты федеральных законов, новейшую научную литературу и судебную практику. Предлагаем вам воспользоваться нашими услугами. На все выполняемые работы даются гарантии
Вернуться к списку статей по юриспруденции
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И УГОЛОВНАЯ ОТВЕТСТВЕННОСТЬ: ПРОБЛЕМЫ ПРИВЛЕЧЕНИЯ (СРАВНИТЕЛЬНО-ПРАВОВОЙ АНАЛИЗ)
Е.С. ПАПЫШЕВА
Стремительное развитие технологий искусственного интеллекта (далее - ИИ) и значительные достижения в этой сфере обусловили его использование во всех сферах жизнедеятельности человека и общества. ИИ способен автономно принимать решения, изменять правила принятия этих решений, изменять собственные свойства и качества, адаптируясь к внешним раздражителям <1>. Таким образом, ИИ осуществляет контроль за своей деятельностью. ИИ становится все более автономным. Более того, по мнению инженера-программиста Google Блейка Лемуана, ИИ LaMDA обладает разумом. Эта новость облетела все новостные каналы, а инженера отстранили от дальнейшего участия в проекте <2>.
--------------------------------
<1> Morley J., Kinsey L., Elhalal A. et al. Operationalising AI ethics: Barriers, enablers and next steps // AI & SOCIETY. 2021. Vol. 38. P. 411 - 423. DOI: 10.1007/s00146-021-01308-8.
<2> Blake Lemoine: Google fires engineer who said AI tech has feelings. BBC News, URL: https://www.bbc.com/news/technology-62275326 (дата обращения: 29.05.2023).
Конечно, вопрос о наличии у ИИ сознания остается открытым. Но безусловно то, что ИИ обладает большим преимуществом перед человеческим мозгом: памятью, доведенной до абсолюта, отсутствием усталости, эмоций, невнимательности, возможностью точно прогнозировать ситуацию на основе расчета абсолютно всех возможных вариантов развития конкретной ситуации.
Соответственно, ИИ привлек внимание и используется не только в правоохранительной деятельности, но и в противоположной ей - преступной. Осознание преступниками преимуществ ИИ привело к новому поколению преступлений и способов их совершения. Это является достаточно большой проблемой, ведь, помимо прочих, понятие субъекта преступления пока несовместимо с ИИ <3>, квалификация действий ИИ и процедура его привлечения к уголовной ответственности невозможны.
--------------------------------
<3> См. об этом: Шестак В.А., Волеводз А.Г. Современные потребности правового обеспечения искусственного интеллекта: взгляд из России // Всероссийский криминологический журнал. 2019. Т. 13. N 2. С. 197 - 206. DOI: 10.17150/2500-4255.2019.13(2).197-206; Шестак В.А., Волеводз А.Г., Ализаде В.А. О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США // Всероссийский криминологический журнал. 2019. Т. 13. N 4. С. 547 - 554. DOI: 10.17150/2500-4255.2019.13(4).547 - 554.
Каким образом будут устанавливаться субъекты преступления, их виновность и форма вины, распределяться уголовная ответственность? Цель настоящей статьи - обратить внимание на эти проблемные вопросы правоприменения.
Зарубежные авторы выделяют некоторые возможные способы участия ИИ в совершении преступлений <4>. ИИ может быть изначально создан для совершения преступлений (The Perpetration-by-Another: совершение через другое лицо). Субъектом преступления выступают его программист, производитель и (или) пользователь. Речь в данном контексте идет об умышленных преступлениях. Соответственно, уголовной ответственности за действия ИИ подлежат указанные лица. Одним из ярких примеров такой преступной деятельности является роботизация наркоподводных лодок колумбийскими наркоторговцами <5>. ИИ в таком случае невиновен.
--------------------------------
<4> Hayward K.J., Maas M.M. Artificial intelligence and crime: A primer for criminologists // Crime, Media, Culture. 2021. Vol. 17. Iss. 2. P. 209 - 233.
<5> Bleszynska K. Underwater Drone Would Have Secretly Delivered Cocaine to Europe // InSight Crime. 2021. 13 April.
Другая ситуация возникает, когда надлежаще (легально) созданный ИИ может быть использован другими лицами в совершении преступлений (The Natural-Probable-Consequence Liability: естественное вероятное следствие). В данном случае речь идет о небрежности со стороны программиста (пользователя), повлекшей использование ИИ в преступных целях. В такой ситуации имеются основания для привлечения разработчика ИИ к уголовной ответственности за совершение преступления по неосторожности.
Один из примеров такой ситуации может быть связан с использованием ИИ для автоматического создания документов. Предположим, что программист разработал ИИ, который может автоматически создавать документы, но не предусмотрел механизмов контроля за использованием этого ИИ. Если этот ИИ попадет в руки преступников и будет использоваться для создания поддельных документов или идентификационных данных, которые могут быть использованы для совершения преступлений, таких как мошенничество (ст. 159 Уголовного кодекса Российской Федерации <6>, далее - УК РФ), нарушение неприкосновенности частной жизни (ст. 137 УК РФ) или незаконное получение и разглашение сведений, составляющих коммерческую, налоговую или банковскую тайну (ст. 183 УК РФ), то разработчик ИИ может быть привлечен к уголовной ответственности за преступление в сфере компьютерной информации, совершенное по неосторожности, при создании такого ИИ.
--------------------------------
<6> Уголовный кодекс Российской Федерации от 13 июня 1996 г. N 63-ФЗ // СПС "КонсультантПлюс".
Разработчик мог не предвидеть возможности использования ИИ в преступных целях, однако если он не принял достаточных мер для предотвращения такого использования, то может быть признан виновным в совершении преступления по небрежности, ответственным за негативные последствия своих действий.
Если же в процессе совершения какого-либо преступления робот по независящим от программиста причинам отклоняется от цели, не выполняя запланированного, но при этом совершает иное преступление, физическое лицо подлежит уголовной ответственности и за умышленное преступление (покушение на него), и за то, объективную сторону которого выполнил ИИ. Примерами могут быть использование дронов для уничтожения каких-либо целей (человека либо материальных объектов (чужого имущества)) или имитация дронами чужого вайфая и хищение таким образом конфиденциальной информации различного содержания. Если же смоделировать эти ситуации относительно отклонения дрона от цели, то, соответственно, это - поражение иного, незапланированного, объекта, хищение конфиденциальной информации, принадлежащей иному лицу.
Возможна и ситуация совершения преступлений по неосторожности, когда создатели ИИ не имели умысла на совершение преступления, но вследствие небрежности при составлении программ ИИ, проектировании с использованием ИИ допустили ошибки. Например, когда причиной неверной постановки диагноза является ошибка программирования ИИ. В такой ситуации к уголовной ответственности может быть привлечен разработчик программы, если он при необходимой внимательности и предусмотрительности мог предвидеть эти последствия <7>.
--------------------------------
<7> Пример подобного преступления приведен Мосечкиным И.Н. о ситуации, в которой причиной неверной постановки медицинским ИИ диагноза послужило несовершенство программного обеспечения, в том числе его неправильное обучение. По его мнению, деяние подлежит квалификации по п. "в" ч. 2 ст. 238 УК РФ. См.: Мосечкин И.Н. Искусственный интеллект в уголовном праве: перспективы совершенствования охраны и регулирования. Киров, 2020. С. 35 - 36.
Такие преступления очень сложны в доказывании, необходимы специальные знания в сфере IT. При создании программного продукта с использованием ИИ участвует большая группа специалистов различных областей. Разработчики-программисты занимаются написанием кода и разработкой программного обеспечения с использованием технологий ИИ. Специалисты по машинному обучению отвечают за обучение ИИ на основе данных и определение алгоритмов для улучшения его работы. Инженеры по качеству и тестированию тестируют программное обеспечение в различных сценариях использования и выявляют возможные ошибки. Инженеры по безопасности информации обеспечивают безопасность программного обеспечения и защиту от кибератак. Специалисты по базам данных отвечают за проектирование и обслуживание баз данных, необходимых для работы ИИ. Дизайнеры пользовательского интерфейса занимаются разработкой удобного и понятного интерфейса для использования программного обеспечения. Менеджеры проектов отвечают за планирование и управление процессом разработки программного продукта с использованием ИИ. Юристы занимаются вопросами юридической защиты разработчиков и пользователей ИИ, а также соблюдением законодательства в области использования ИИ. Как установить, кто из них совершил ошибку, чьи конкретно действия повлекли общественно опасные последствия, как выстроить причинно-следственную связь?
И наконец, последняя ситуация может возникнуть тогда, когда ИИ самостоятельно совершает преступление, независимо от воли и желания наступления общественно опасных последствий его создателей и пользователей (The Direct Liability: прямая ответственность). Автономность принятия решений ИИ будет только нарастать. Подобная ситуация может возникнуть тогда, когда ИИ будет обладать самосознанием (возникнет сильный ИИ), он может быть наделен правосубъектностью, соответственно, рассматриваться как субъект преступления. Если последняя ситуация участия ИИ в совершении преступления - проблема будущего, то все предыдущие - настоящего.
Как отмечено выше, преступления с участием ИИ сложны в доказывании. В разработке программного продукта участвует значительное количество специалистов. Возникнут ситуации, в которых будет крайне затруднительно или вообще невозможно доказать вину того либо иного физического лица, в том числе и должностного; установить причинно-следственные связи между деянием лица и наступившими общественно опасными последствиями может оказаться невозможным. Необходимо учитывать и то, что не каждый участник цепи создания ИИ может обладать информацией о предполагаемой преступной деятельности (это касается умышленных преступлений).
ИИ - это не дрессированное животное, за действия которого несет ответственность его владелец. Нельзя сравнивать преступления в этой сфере и с преступлениями техногенного характера, в которых действия (бездействие) конкретных лиц, нарушивших установленные правила и запреты, влекут общественно опасные последствия (например, как по ст. 216 УК РФ). Относительно преступлений, совершенных с использованием ИИ, отсутствие правовой регламентации, регуляторных рамок также служит препятствием для привлечения физического лица к ответственности.
Практически отсутствие судебной практики привлечения к уголовной ответственности за преступления в сфере ИИ объясняется не отсутствием подобного рода преступлений, а скорее связано, по нашему мнению, с латентностью преступности в сферах использования ИИ, а также со сложностью доказывания. ИИ причиняется вред охраняемым уголовным законом правоотношениям, а в будущем, с развитием технологий ИИ, преступность такого рода будет только расти. В настоящее время мы все наблюдаем, какое количество кибератак проводится в отношении государственных и финансовых органов Российской Федерации.
В этой связи полагаем настоятельно необходимым возвращение к теме уголовной ответственности юридических лиц. Несмотря на наличие в проектах нынешнего УК РФ нормы, предусматривающей уголовную ответственность юридического лица, в принятом законодательном акте ее не оказалось <8>. Впоследствии (2014 - 2015 годы) очень активно обсуждалась эта тема в научных кругах, вносились законопроекты в Государственную Думу Федерального Собрания, но вновь сошла на нет <9>.
--------------------------------
<8> Постановление ГД ФС РФ от 22 декабря 1994 г. N 418-1 ГД "О проекте Уголовного кодекса Российской Федерации" // СЗ РФ. 1995. N 1. Ст. 10.
<9> Например, внесенный 23 марта 2015 г. депутатом Государственной Думы Ремезковым А.А. и членом Совета Федерации Ковитиди О.Ф. законопроект "О внесении изменений в некоторые законодательные акты Российской Федерации в связи с введением института уголовной ответственности юридических лиц" N 750443-6 / СОЗД ГАС "Законотворчество". URL: https://sozd.duma.gov.ru/bill/750443-6?ysclid=l6dgeuu4fk583650117 (дата обращения: 29.05.2023).
Сторонников, как и противников, введения уголовной ответственности юридических лиц много, у каждой из сторон - свои аргументы <10>. Однако целью настоящей статьи не является их анализ.
--------------------------------
<10> См., например, дискуссию: Федоров А.В. Уголовная ответственность юридических лиц // Закон. 2017. N 6. С. 62 - 69; Головко Л.В. Дежавю, или Очередная порция доводов в пользу уголовной ответственности юридических лиц // Закон. 2017. N 8. С. 105 - 114, а также: Волеводз А.Г. О некоторых препятствиях введению правового регулирования уголовной ответственности юридических лиц в законодательство России // Библиотека уголовного права и криминологии. 2013. N 3. С. 175 - 183.
Процесс создания ИИ длительный и затратный, поэтому работы ведутся под патронажем юридических лиц, корпораций. Учитывая стремительное развитие технологий и, соответственно, рост преступлений, связанных с использованием ИИ, полагаю, что разрешение вопроса уголовной ответственности юридических лиц назрело. Необходимо принимать во внимание то, что регламентация деятельности по созданию и использованию ИИ в настоящее время практически отсутствует <11>. Можно назвать лишь несколько нормативных правовых актов, но и они носят скорее декларативный характер <12>.
--------------------------------
<11> Следует отметить, что В.Б. Наумов и В.В. Архипов еще в 2017 г. подняли тему необходимости разработки основ законодательства в данной сфере. Но по прошествии шести лет проблема так и не решена. См.: Архипов В.В., Наумов В.Б. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике // Труды СПИИРАН. 2017. Т. 6. N 55. С. 59.
<12> Например, Федеральный закон от 24 апреля 2020 г. N 123-ФЗ "О проведении эксперимента по установлению специального регулирования в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта в субъекте Российской Федерации - городе федерального значения Москве и внесении изменений в статьи 6 и 10 Федерального закона "О персональных данных" // СЗ РФ. 2020. N 17. Ст. 2701; Указ Президента РФ от 10 октября 2019 г. N 490 "О развитии искусственного интеллекта в Российской Федерации", утвердивший Национальную стратегию развития искусственного интеллекта на период до 2030 г. // СЗ РФ. 2019. N 41. Ст. 5700.
Европейское законодательство лишь ратует за соблюдение этических норм при создании и использовании ИИ, поэтому пробелы законодательства позволяют юридическим лицам (корпорациям) создавать ИИ в нарушение общепризнанных принципов прав и свобод человека и гражданина <13>. Следовательно, отсутствие регуляторных рамок можно отнести, на наш взгляд, к условиям, способствующим совершению преступлений в рассматриваемой сфере.
--------------------------------
<13> European Commission. (2021). Artificial Intelligence Act. https://eurlex.europa.eu/legal-content/EN/TXT/?uri=CELLAR:e0649735-a372-11eb-9585-01aa75ed71a1 (дата обращения: 29.05.2023).
Одним из способов пресечения незаконной преступной деятельности в этой сфере, на наш взгляд, является введение уголовной ответственности для юридических лиц (корпоративная ответственность).
Мировые тенденции развития уголовного законодательства свидетельствуют о введении института уголовной ответственности юридических лиц во все большем числе стран. Сейчас этот институт уже не является специфической чертой сугубо англо-американской системы права. Тем не менее российский законодатель не приемлет юридическое лицо как субъекта уголовной ответственности.
Сложная структура управления корпорациями (иными крупными компаниями) и процессом создания ИИ, разграничения функций (вклада) каждого из причастных к созданию участников этого процесса (заказчики, разработчики, тестировщики, пользователи и т.д.), нередко принимаемых коллективных решений авторами ИИ препятствует и даже делает невозможным установление конкретных лиц, причастных к совершению преступления. В данном контексте полагаем возможным применить термин "коллективный интеллект" или "коллективный разум" - способность группы находить решения задач более эффективно, чем лучшее индивидуальное решение в этой группе <14>.
--------------------------------
<14> New Jersey Institute of Technology. URL: https://www.njit.edu/ (дата обращения: 29.05.2023).
Отсутствие законодательной регламентации по созданию и использованию ИИ также препятствует индивидуализации вины должностных и иных сотрудников корпораций.
Выходом из складывающейся ситуации видится введение уголовной ответственности юридических лиц. Это станет в некоторых ситуациях единственно возможным способом привлечения к уголовной ответственности за совершенные ИИ или с помощью ИИ преступления.
Кроме того, привлечение юридического лица к уголовной ответственности может стать эффективным методом борьбы с преступностью в сфере использования ИИ, с применением значительных по размеру штрафов к юридическим лицам, и не позволит ограничиваться привлечением к уголовной ответственности "стрелочников". Административная или гражданско-правовая ответственность не влечет тех последствий, что уголовная, и не дает желаемых гарантий прекращения преступной деятельности юридического лица.
Главное препятствие во введении института уголовной ответственности юридического лица противники видят в субъективной стороне как элементе состава преступления, который определяется как психическое отношение лица к содеянному. Юридическое лицо не имеет психики, соответственно, отсутствие этого элемента препятствует рассмотрению юридического лица как субъекта преступления.
Оппонируя, логично обратиться к Кодексу Российской Федерации об административных правонарушениях <15> (далее - КоАП РФ), который впервые ввел административную ответственность юридического лица. Конструкция состава правонарушения аналогична конструкции состава преступления, предусмотрены также две формы вины. Более того, при криминализации и декриминализации составы нередко кочуют из одного кодекса в другой. В КоАП РФ речь идет не только об административной ответственности, но и о виновности юридического лица, которая присутствует в том случае, если у него имелась возможность для соблюдения правил и норм, за нарушение которых предусмотрена административная ответственность, но юридическим лицом не были приняты все зависящие от него меры по их соблюдению (ст. 2.1, ст. 2.10).
--------------------------------
<15> Кодекс Российской Федерации об административных правонарушениях от 30 декабря 2001 г. N 195-ФЗ // СПС "КонсультантПлюс".
В этой конструкции нет увязки с ответственностью конкретного физического лица; в КоАП РФ применена модель автономной административной ответственности юридического лица (однако КоАП РФ предусмотрена возможность привлечения к ответственности и физического лица за правонарушение). Юридическое лицо может быть привлечено к ответственности наравне с должностным.
Аналогичным образом возможно применить эту модель в уголовно-правовых отношениях. Тем более что тема слияния двух процессов, административного и уголовного, давно обсуждается в научном сообществе <16>. Наличие причинно-следственных связей между противоправной деятельностью юридического лица и общественно опасными последствиями должно устанавливаться в процессе привлечения к ответственности. По КоАП РФ имеет место объективное вменение юридическому лицу, тогда как в отношении физического лица подобное недопустимо (ст. 5 УК РФ, в отличие от КоАП РФ, предусматривает запрет на объективное вменение).
--------------------------------
<16> Подробнее об этом см., например: Головко Л.В. Разграничение административной и уголовной ответственности по российскому праву // Lex russica (Русский Закон). 2016. N 1. С. 139 - 145; Шарипова А.Р. Пересмотр дел по вновь открывшимся и новым обстоятельствам: невыгодные отличия уголовного процесса // Вестник Томского государственного университета. 2021. N 40. С. 221 - 223.
Вполне возможно использовать конструкцию нормы, подобную норме КоАП РФ, которая достаточно успешно используется отечественным правоприменителем и прошла проверку временем.
Мировой опыт достаточно разнообразен, его изучение и выбор концепции определения уголовной ответственности юридического лица должны быть направлены на защиту общественных и государственных интересов с учетом особенностей отечественной уголовно-правовой системы.
Литература
1. Архипов В.В. Искусственный интеллект и автономные устройства в контексте права: о разработке первого в России закона о робототехнике / В.В. Архипов, В.Б. Наумов // Труды СПИИРАН. 2017. N 6(55). С. 46 - 62.
2. Волеводз А.Г. О некоторых препятствиях введению правового регулирования уголовной ответственности юридических лиц в законодательство России / А.Г. Волеводз // Библиотека уголовного права и криминологии. 2013. N 3. С. 175 - 183.
3. Головко Л.В. Дежавю, или Очередная порция доводов в пользу уголовной ответственности юридических лиц / Л.В. Головко // Закон. 2017. N 8. С. 105 - 114.
4. Головко Л.В. Разграничение административной и уголовной ответственности по российскому праву / Л.В. Головко // Lex russica (Русский закон). 2016. N 1. С. 139 - 145.
5. Мосечкин И.Н. Искусственный интеллект в уголовном праве: перспективы совершенствования охраны и регулирования: Монография / И.Н. Мосечкин. Киров: Вятский государственный университет, 2020. 111 с.
6. Федоров А.В. Уголовная ответственность юридических лиц / А.В. Федоров // Закон. 2017. N 6. С. 62 - 69.
7. Шарипова А.Р. Пересмотр дел по вновь открывшимся и новым обстоятельствам: невыгодные отличия уголовного процесса / А.Р. Шарипова // Вестник Томского государственного университета. 2021. N 40. С. 221 - 223.
8. Шестак В.А. О возможности доктринального восприятия системой общего права искусственного интеллекта как субъекта преступления: на примере уголовного законодательства США / В.А. Шестак, А.Г. Волеводз, В.А. Ализаде // Всероссийский криминологический журнал. 2019. Т. 13. N 4. С. 547 - 554. DOI: 10.17150/2500-4255.2019.13(4).547-554.
9. Шестак В.А. Современные потребности правового обеспечения искусственного интеллекта: взгляд из России / В.А. Шестак, А.Г. Волеводз // Всероссийский криминологический журнал. 2019. Т. 13. N 2. С. 197 - 206. DOI: 10.17150/2500-4255.2019.13(2).197-206.
References
1. Bleszynska K. Underwater Drone Would Have Secretly Delivered Cocaine to Europe / K. Bleszynska // InSight Crime. 2021. 13 April.
2. Hayward K.J. Artificial intelligence and crime: A primer for criminologists / K.J. Hayward, M.M. Maas // Crime, Media, Culture. 2021. Vol. 17. Iss. 2. P. 209 - 233.
3. Morley J. Operationalising AI ethics: Barriers, enablers and next steps / J. Morley, J., Kinsey L., Elhalal A. [et al.] // AI & SOCIETY. 2021. Vol. 38. P 411 - 423. DOI: 10.1007/s00146-021-01308-8.
Наша компания оказывает помощь по написанию курсовых и дипломных работ, а также магистерских диссертаций по предмету Уголовное право, предлагаем вам воспользоваться нашими услугами. На все работы дается гарантия.