Наша компания оказывает помощь по написанию статей по предмету Гражданское право. Используем только актуальное законодательство, проекты федеральных законов, новейшую научную литературу и судебную практику. Предлагаем вам воспользоваться нашими услугами. На все выполняемые работы даются гарантии
Вернуться к списку статей по юриспруденции
ДЕЛИКТНАЯ ОТВЕТСТВЕННОСТЬ ЗА ПРИЧИНЕНИЕ ВРЕДА ИСКУССТВЕННЫМ ИНТЕЛЛЕКТОМ: ПРОБЛЕМЫ И ПЕРСПЕКТИВЫ РАЗВИТИЯ
Л.Ю. ВАСИЛЕВСКАЯ
В условиях всеобщей цифровизации, связанной с использованием искусственного интеллекта (ИИ) и его технологий, на первый план в цивилистике выходит ряд концептуальных проблем, без решения которых невозможны ни стабильность имущественного оборота, ни развитие доктрины и гражданского законодательства. Активное внедрение цифровых технологий, в том числе и ИИ, во все сферы жизнедеятельности человека выявило немало негативных последствий, связанных не только с участившимися вирусными, хакерскими атаками на компьютерные системы, сайты и информационные платформы, но и с расширением деструктивного цифрового контента, ведущего к трансформации права. Все чаще в распространении отрицательных, противоправных деяний стали винить ИИ <1>. Как справедливо отмечает Е.В. Вавилин, автономные от человека объекты порождают риски совершенно экзистенциального масштаба <2>.
--------------------------------
<1> См.: Василевская Л.Ю. Кодекс этики для искусственного интеллекта: юридический миф и реальность // Гражданское право. 2023. N 2. С. 19 - 22.
<2> См. Вавилин Е.В. Беспилотные транспортные средства: от терминологии к новым правовым режимам // Хозяйство и право. 2023. N 8. С. 21.
Проблемы деликтной ответственности, связанные с причинением вреда ИИ, достаточно часто рассматриваются многими авторами схоластично - в аспектах, не имеющих в настоящее время практического значения. Например, рассуждения авторов о важности признания ИИ правосубъектным образованием, по сути, сводятся к выводу о необходимости наделения ИИ ответственностью за причиненный вред. Возникает вопрос: чем, каким имуществом будет отвечать ИИ в случае наделения его законодателем правосубъектностью? Разве при оценке ИИ и его возможностей можно игнорировать известный и непреложный постулат математических наук о том, что он есть результат сложного программирования <3>?
--------------------------------
<3> См.: Евгений Касперский: никакого искусственного интеллекта пока нет. URL: https://newizv.ru/comment/2/15-02-2017/252046-evgenij-kasperskii-nikakogo-iskusstvennogo-intellekta-poka-net (дата обращения: 05.03.2025); Василевская Л.Ю., Подузова Е.Б., Тасалов Ф.А. Цифровизация гражданского оборота: проблемы и тенденции развития (цивилистическое исследование): монография: в 5 т. Т. 1 / отв. ред. Л.Ю. Василевская. М.: Проспект, 2021. С. 35 - 38.
Вместе с тем вывод о том, что ИИ как результат творческой интеллектуальной деятельности человека <4> является источником повышенной опасности, рассматривается многими авторами без должной правовой аргументации <5>. Неминуемо встает вопрос: какого подхода придерживаться в трактовке источника повышенной опасности - теории деятельности <6> или теории объекта <7>? Может ли сам ИИ обладать качествами источника повышенной опасности или речь должна идти о реализации деятельностного подхода, согласно которому под источником повышенной опасности понимается деятельность граждан или юридических лиц, связанных с использованием ИИ?
--------------------------------
<4> См.: Василевская Л.Ю., Подузова Е.Б., Тасалов Ф.А. Цифровизация гражданского оборота: правовая характеристика "искусственного интеллекта" и "цифровых" субъектов (цивилистическое исследование): монография: в 5 т. Т. 3 / отв. ред. Л.Ю. Василевская. М.: Проспект, 2021. С. 25 - 51.
<5> См., например: Антонов А.А. Искусственный интеллект как источник повышенной опасности // Юрист. 2020. N 7. С. 69 - 74; Зырянов И.А. К вопросу о введении киберответственности искусственного интеллекта // Конституционное и муниципальное право. 2023. N 5. С. 53 - 58; Горохова С.С. Технологии на основе искусственного интеллекта: перспективы и ответственность в правовом поле // Юрист. 2021. N 6. С. 60 - 67 и др.
<6> См.: Антимонов Б.С. Гражданская ответственность за вред, причиненный источником повышенной опасности. М.: Госюриздат, 1952. С. 71.
<7> См.: Красавчиков О.А. Возмещение вреда, причиненного источником повышенной опасности. М.: Юрид. лит., 1966. С. 34.
На наш взгляд, цивилистическая трактовка источника повышенной опасности, связанная с реализацией на практике одного из вышеобозначенных подходов (теории деятельности или теории объекта), применительно к ИИ не может быть реализована в полной мере. Безусловно, ИИ как результат интеллектуальной деятельности, как система технологических решений <8> идеален по своей природе: над его созданием, как правило, работает коллектив, возглавляемый организатором создания ИИ. В этом творческом процессе разработки элементов ИИ (алгоритмов в качестве ноу-хау, технических решений как изобретений, баз данных как сложных или составных объектов и др.) сложно, как считают технические специалисты, в силу объективных причин предусмотреть возможный вредоносный результат в рамках многовариантных запрограммированных разработчиками автоматических действий со стороны создаваемого ИИ <9>. Например, известно, что процесс создания основного структурообразующего элемента ИИ - компьютерных программ - включает в себя многоэтапный переход текста программы (исходного кода) на определенном языке программирования в объектный код, а из него - в исполняемый цифровой код. Если в коде содержится ошибка (опечатка или неправильное толкование данных, допущенных программистом), то цифровое приложение, установленное на компьютере или смартфоне, даст сбой (остановка выполнения) или неверный результат <10>. Очевидно, в этом случае пользователи приложений становятся заложниками профессионализма IT-специалистов и программистов. Если же сложное программирование, осуществляемое специалистами при создании ИИ, изначально нацелено на причинение вреда лицам, то в данном случае речь должна идти прежде всего о реализации деятельностного подхода к пониманию источника повышенной опасности при использовании ИИ.
--------------------------------
<8> См.: Вавилин Е.В. Трансформация гражданско-правовых и процессуальных отношений с использованием искусственного интеллекта: формирование новых правовых режимов // Проблемы гражданского процесса. 2021. N 6. С. 15.
<9> См.: Василевская Л.Ю. Кодекс этики для искусственного интеллекта: юридический миф и реальность // Гражданское право. 2023. N 2. С. 19 - 22.
<10> См.: Василевская Л.Ю., Подузова Е.Б., Тасалов Ф.А. Цифровизация гражданского оборота: проблемы и тенденции развития (цивилистическое исследование): монография: в 5 т. Т. 1. С. 18 - 19.
Вместе с тем само сложное программирование, как считают IT-специалисты, не исключает возможности развертывания "сценария", неподконтрольного программисту. И дело здесь не в уникальных возможностях ИИ, способного якобы копировать когнитивные функции человека. ИИ как сложноструктурный продукт, сочетающий в себе многообразие иных результатов интеллектуальной деятельности (элементов ИИ), в отличие от интеллекта человека не обладает целеполаганием, но при программировании в случаях непрофессионализма и непродуманных действий программиста ИИ может совершить незапрограммированное вредоносное "действие" в виде самоисполняемых алгоритмов, не предусмотренных сложным программированием. Более того, определить, кто виноват - программист или ИИ - практически, как считают специалисты, невозможно.
Следовательно, выбор одного из традиционных подходов (теория деятельности и теория объекта) в решении вопроса гражданско-правовой ответственности применительно к ИИ невозможен. Более того, причинение вреда при использовании ИИ сложно увязать с известными формами вины - умыслом и неосторожностью. Не всегда ошибки в программировании связаны с умыслом с целью причинения вреда, а что касается неосторожности, то в сфере программирования ее невозможно установить. Кроме того, допускаемое не предусмотренное программированием вредоносное "действие" самоисполняемых алгоритмов в рамках сложного продукта (ИИ), хотя и является вторичным, производным от деятельности программиста, тем не менее его нельзя считать результатом умысла или неосторожности неправосубъектного образования, каким и выступает ИИ. Не следует забывать, что он не признается законодателем субъектом права, а является объектом интеллектуальных прав. Поэтому разные формы вины в деликтном праве (умысел и неосторожность) трудно выделить при решении вопроса о возмещении вреда, возникшего при использовании ИИ. По мнению В.В. Витрянского, вину в форме грубой неосторожности в гражданском праве практически невозможно отличить от умышленной вины <11>.
--------------------------------
<11> См.: Брагинский М.И., Витрянский В.В. Договорное право. Общие положения. М.: Статут, 1998. С. 613.
Это означает не что иное, что проблема вины при причинении вреда ИИ, по сути, нивелируется. Известный принцип ответственности за вину, как обязательный элемент генерального деликта, здесь не имеет принципиального значения. Следовательно, вопрос возмещения вреда не может быть решен с помощью принципа генерального деликта, поскольку отсутствует одно из общих его условий гражданско-правовой ответственности - вина. Полагаем, что решение этого вопроса связано с разработкой законодателем специальных правил, образующих специальный деликт по безвиновной модели ответственности лиц за вред, причиненный источником повышенной опасности при использовании ИИ.
Анализируя проблему причинения вреда ИИ, следует иметь в виду, что внедрение этого интеллектуального продукта, идеального по своей природе, возможно в разнообразные объективные носители - объекты окружающего мира: 1) прежде всего в вещи, например беспилотные летательные аппараты - БПЛА самолетного и вертолетного типа; механизмы и устройства, управляемые ИИ; беспилотные автотранспортные средства, оборудованные системой автоматического управления, и др.; 2) в особые технические устройства - компьютеры, девайсы, гаджеты и др.; 3) в созданное человеком сетевое "пространство" - цифровые интернет-платформы, маркетплейсы, онлайн-классифайды и проч.; 4) в биологические организмы - при чипировании животных, при шунтировании сердца человека и т.п. Поэтому источником повышенной опасности выступает не сам ИИ, существующий в объективной (цифровой) форме на разнообразных вещественных, электронных и биологических носителях, а его качество <12> вредоносности, проявляющееся только в процессе использования ИИ, чаще всего не контролируемое (или контролируемое частично) человеком, в результате чего и создается опасность для окружающих. В этой связи обратим внимание на высказывание О.А. Красавчикова, который, поднимая проблему гражданско-правовой ответственности за причинение вреда источником повышенной опасности, делал акцент не на безвиновной ответственности, а на качественном признаке объекта, использованием которого был причинен вред <13>. Это высказывание известного цивилиста имеет непосредственное отношение к рассматриваемой нами проблеме.
--------------------------------
<12> См.: о различиях философских категорий "свойство" и "качество": "использование" - ключевое понятие для различения свойств и качеств объекта, при использовании которого проявляется качество объекта. URL: http://rl-online.ru/articles/rl01_06/512.html (дата обращения: 04.05.2025).
<13> См.: Красавчиков О.А. Избранные труды: в 2 т. Т. 2. 2-е изд., стереотип. М.: Статут, 2017. С. 291.
ИИ на определенном носителе сам по себе не создает угрозы причинения вреда. Качество вредоносности ИИ может проявиться только при его использовании. Это означает, что источником повышенной опасности можно считать вредоносность - создающее повышенную вероятность причинения вреда качество ИИ, проявление которого может быть предусмотрено дефектным и деструктивным контентом, скрытым от контроля (либо частичного контроля) человека. Речь идет прежде всего о внедрении в ИИ вредоносных программ при применении бустинга - определенной техники построения алгоритмов, в которую заложена идея изменения программы (как реализации алгоритмов) и с помощью которой разработчик ИИ или хакер может использовать вредоносные программы, содержащие:
1) чит - вредоносный код <14>, позволяющий незаконно взламывать компьютерные информационные системы для получения данных; код вводится в программу, чтобы изменить ход ее работы;
2) инсталляции в операционную систему определенных данных, создающих различные помехи в трансляции изображения и визуализации текста (глюки, сбои в работе программных средств, зависание программы и т.п.);
3) различные регулировки в платах и устройствах системы технологий ИИ;
4) проч. <15>.
--------------------------------
<14> Чит-код (от англ. cheat code, cheat - жульничество).
<15> См.: Василевская Л.Ю. Бустинг в цифровой среде: проблемы определения и правовой регламентации // Хозяйство и право. 2020. N 12. С. 3 - 14.
Внедрение вредоносного контента в ИИ всегда связано с сокрытием виртуальных следов преступления в информационной системе. Вуалирование, маскировка вторжения хакера не представляет для них сложностей, но на практике вызывает трудности в доказывании состава гражданского правонарушения, и прежде всего вины как условия гражданско-правовой ответственности хакера. Поскольку за сохранность, безопасность и надлежащее функционирование системы с ИИ отвечают определенные лица, то они и должны, на наш взгляд, привлекаться к гражданско-правовой ответственности.
Определение круга ответственных лиц, а также установление оснований их ответственности <16> является значимым для решения обозначенной нами проблемы. С цивилистической точки зрения применительно к ИИ следует говорить не о владельце источника повышенной опасности, а о правообладателе-обладателе исключительных прав на ИИ (с качеством вредоносности). Ими могут быть разработчики ИИ либо лица, использующее ИИ на основании договоров о распоряжении исключительными правами на ИИ <17>. Несмотря на различие подходов и моделей ответственности за "действия" ИИ <18>, вопрос о правообладателе является важным в решении проблемы ответственности, прежде всего солидарной ответственности лиц (например, лицензиара и лицензиата) за вред, причиненный ИИ с вредоносными качествами. Не менее актуальным является вопрос о деликтной ответственности в случае хакерского вмешательства третьего лица-интервента в интеллектуальный продукт с целью дестабилизации программ и алгоритмов - элементов системы ИИ. Должен ли в этом случае привлекаться к ответственности правообладатель информационной системы, функционирование которой осуществляется на платформе ИИ, и ее оператор? Полагаем, что да. Необходимо создание правил о солидарной ответственности указанных лиц.
--------------------------------
<16> См.: Вавилин Е.В. Ответственность за вред, причиненный беспилотным транспортным средством // Хозяйство и право. 2023. N 10. С. 6 - 10.
<17> См.: Василевская Л.Ю., Подузова Е.Б. Цифровизация гражданского оборота: "искусственный интеллект" и технологии "искусственного интеллекта" в механизме договорного регулирования (цивилистическое исследование): монография: в 5 т. Т. 4. М.: Проспект, 2022. С. 172 - 249.
<18> См.: Вавилин Е.В. Искусственный интеллект как участник гражданских отношений: трансформация права // Вестник Томского государственного университета. Право. 2021. N 42. С. 140.
Особого внимания требует вопрос о субъективных основаниях ответственности за вред, причиненный ИИ с вредоносными качествами. Речь идет прежде всего о разработке норм, регулирующих ответственность за вред, причиненный источником повышенной опасности. В случае безвиновного возложения ответственности на правообладателя субъективным основанием ответственности следует считать риск, связанный не только с возможным проявлением вредоносности ИИ, но и с предполагаемым нежелательным результатом (при его сознательном допущении правообладателем), не исключающим вероятности достижения негативных последствий из-за проявления вредоносности ИИ.
Обозначенные проблемы деликтной ответственности за вред, причиненный вредоносными качествами ИИ, должны сопровождаться, на наш взгляд, разработкой специального деликта - установления в законе специальных оснований для привлечения к ответственности за причинение вреда не только правообладателей - разработчиков ИИ и обладателей прав использования ИИ по соответствующим договорам (лицензионному, сублицензионному и др.), но и хакеров.
Литература
1. Антимонов Б.С. Гражданская ответственность за вред, причиненный источником повышенной опасности / Б.С. Антимонов. Москва: Госюриздат, 1952. 300 с.
2. Антонов А.А. Искусственный интеллект как источник повышенной опасности / А.А. Антонов // Юрист. 2020. N 7. С. 69 - 74.
3. Вавилин Е.В. Беспилотные транспортные средства: от терминологии к новым правовым режимам / Е.В. Вавилин // Хозяйство и право. 2023. N 8. С. 3 - 21.
4. Вавилин Е.В. Искусственный интеллект как участник гражданских отношений: трансформация права / Е.В. Вавилин // Вестник Томского государственного университета. Право. 2021. N 42. С. 135 - 146.
5. Вавилин Е.В. Ответственность за вред, причиненный беспилотным транспортным средством / Е.В. Вавилин // Хозяйство и право. 2023. N 10. С. 3 - 12.
6. Вавилин Е.В. Трансформация гражданско-правовых и процессуальных отношений с использованием искусственного интеллекта: формирование новых правовых режимов / Е.В. Вавилин // Проблемы гражданского процесса. 2021. N 6. С. 13 - 35.
7. Василевская Л.Ю. Бустинг в цифровой среде: проблемы определения и правовой регламентации / Л.Ю. Василевская // Хозяйство и право. 2020. N 12. С. 3 - 14.
8. Василевская Л.Ю. Кодекс этики для искусственного интеллекта: юридический миф и реальность // Гражданское право. 2023. N 2. С. 19 - 22.
9. Василевская Л.Ю. Цифровизация гражданского оборота: монография. В 5 томах. Т. 1. Проблемы и тенденции развития (цивилистическое исследование) / Л.Ю. Василевская, Е.Б. Подузова, Ф.А. Тасалов; ответственный редактор Л.Ю. Василевская. Москва: Проспект, 2021. 288 с.
10. Василевская Л.Ю. Цифровизация гражданского оборота: монография. В 5 томах. Т. 3. Правовая характеристика "искусственного интеллекта" и "цифровых" субъектов (цивилистическое исследование) / Л.Ю. Василевская, Е.Б. Подузова, Ф.А. Тасалов; ответственный редактор Л.Ю. Василевская. Москва: Проспект, 2021. 286 с.
11. Василевская Л.Ю. Цифровизация гражданского оборота: монография. В 5 томах. Т. 4. "Искусственный интеллект" и технологии "искусственного интеллекта" в механизме договорного регулирования: цивилистическое исследование / Л.Ю. Василевская, Е.Б. Подузова; ответственный редактор Л.Ю. Василевская. Москва: Проспект, 2022. 336 с.
12. Горохова С.С. Технологии на основе искусственного интеллекта: перспективы и ответственность в правовом поле / С.С. Горохова // Юрист. 2021. N 6. С. 60 - 67.
13. Красавчиков О.А. Возмещение вреда, причиненного источником повышенной опасности / О.А. Красавчиков. Москва: Юридическая литература, 1966. 200 с.
Наша компания оказывает помощь по написанию курсовых и дипломных работ, а также магистерских диссертаций по предмету Гражданское право, предлагаем вам воспользоваться нашими услугами. На все работы дается гарантия.