
Наша компания оказывает помощь по написанию статей по предмету Конституционное право России. Используем только актуальное законодательство, проекты федеральных законов, новейшую научную литературу и судебную практику. Предлагаем вам воспользоваться нашими услугами. На все выполняемые работы даются гарантии
Вернуться к списку статей по юриспруденции
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ В ИЗБИРАТЕЛЬНОМ ПРОЦЕССЕ: ПРАКТИКА ИСПОЛЬЗОВАНИЯ И ПОДХОДЫ К РЕГУЛИРОВАНИЮ
И.Д. НАВАГИН
1. О значении и свойствах искусственного интеллекта в избирательном процессе
Вопрос о влиянии искусственного интеллекта (ИИ) на различные сферы деятельности человека приобретает особую актуальность. Применительно к конституционному праву такой сферой становится и избирательный процесс. Решение проблемы возможных подходов к регулированию ИИ для того, чтобы обеспечить гарантии избирательных прав граждан, видится необходимым уже в ближайшем будущем.
Ряд ученых отмечает, что по своей природе искусственный интеллект, с одной стороны, подразумевает применение математических, алгоритмических методов (компонент "искусственный"), а с другой - создается для помощи человеку, имитации и усиления его рациональных способностей, т.е. связанных с познавательным процессом (компонент "интеллект") <1>. И такие свойства ИИ во многом повышают риски основным избирательным правам: в существующих исследованиях отмечается, что технологии ИИ выступают "усилителем" имеющихся практик в избирательном процессе, как обеспечивая определенную автоматизацию и повышенную точность, так и открывая простор для манипуляций действиями избирателей <2>.
--------------------------------
<1> Дьяконова О.Г. К вопросу о понятии технологий искусственного интеллекта // Вестник Университета имени О.Е. Кутафина (МГЮА). 2024. N 3. С. 57 - 58.
<2> Islam M.B.E., Haseeb M., Batool H., Ahtasham N., Muhammad Z. AI Threats to Politics, Elections, and Democracy: A Blockchain-Based Deepfake Authenticity Verification Framework. Blockchains. 2024. N 2 (4). P. 460.
2. Использование искусственного интеллекта: формы и примеры
В избирательном процессе ИИ постепенно находит свое отражение в различных формах. Наиболее распространенным вариантом является создание изображений, аудио- или видеозаписей с помощью генеративного ИИ, так называемых deepfake, прежде всего для целей агитации и формирования определенного отношения избирателей к кандидату в целом (в том числе и негативного). Среди примеров 2024 г. - сгенерированный телефонный звонок якобы от Д. Байдена перед праймериз в Нью-Гемпшире в рамках президентских выборов в США; создание изображений, иллюстрирующих различные проблемы, поднимаемые политическими партиями на выборах в Европейский парламент (например, нелегальной миграции) <3>.
--------------------------------
<3> Artificial Intelligence and Democratic Elections - International Experiences and National Recommendations Report by the Expert Group on Artificial Intelligence and Elections. February 2025. P. 50 - 51, 62. URL: https://www.regjeringen.no/en/dokumenter/artificial-intelligence-and-democratic-elections-international-experiences-and-national-recommendations-report-by-the-expert-group-on-artificial-intelligence-and-elections/id3086085/ (дата обращения: 04.05.2025).
Иные формы включают автоматическую рассылку писем по электронной почте; использование так называемых чат-ботов, в том числе для участия в выборах в качестве отдельного кандидата. Таковым стал в 2024 г. бот AI-Steve, выступавший в избирательном округе Брайтон-Павильон (Brighton Pavilion) в Великобритании, но набравший всего 179 голосов (а победитель по округу - 28 809) <4>. В литературе также рассматриваются процедуры проверки подписей и видеонаблюдение - в качестве примеров, в рамках которых может быть задействована технология ИИ <5>.
--------------------------------
<4> Brighton & Hove City Council. Results - General Election 4 July 2024. URL: https://www.brighton-hove.gov.uk/news/2024/results-general-election-4-july-2024 (дата обращения: 04.05.2025).
<5> Simoes S., MacCarthaigh M. AI and core electoral processes: Mapping the horizons // AI Magazine. 2023. Vol. 44. Iss. 3. P. 218 - 239.
Правовое регулирование ИИ же для разных стадий избирательного процесса, как правило, разворачивается либо параллельно существующей практике его использования, либо как ответ, реакция на такую практику. В этом случае в нормативных положениях прослеживается в большей степени "ограничительная" тенденция.
3. Подходы к регулированию ИИ на выборах: информирование или запрет
Обозначенную тенденцию можно продемонстрировать на нескольких примерах. Так, в принятых в 2024 г. Высшим избирательным судом Бразилии правилах <6> очерчивается следующий порядок применения ИИ на выборах (в основном в рамках предвыборной агитации): запрещено использование deepfake с целью нанести ущерб или оказать предпочтение определенному кандидату; ограничено применение чат-ботов для имитации диалога между кандидатом и другим реальным человеком; установлено требование о маркировке агитационных материалов, созданных с помощью ИИ. Запрет на агитацию с использованием ИИ положен и в российском правовом поле: в частности, Пленум Верховного Суда РФ в Постановлении от 25 июня 2024 г. N 17 установил незаконный характер применения изображений, аудио- или аудиовизуальной информации, выдаваемой за достоверную <7>.
--------------------------------
<6> Prathm Juneja. Artificial intelligence for electoral management. 2024. P. 52. URL: https://www.idea.int/sites/default/files/2024-04/artificial-intelligence-for-electoral-management.pdf (дата обращения: 07.05.2025).
<7> Постановление Пленума Верховного Суда РФ от 25 июня 2024 г. N 17 "Об отдельных вопросах, возникающих у судов при рассмотрении дел об административных правонарушениях, посягающих на установленный порядок информационного обеспечения выборов и референдумов" // Бюллетень Верховного Суда РФ. 2024. N 8.
С другой стороны, имеет место и более "мягкий" подход в регулировании <8>: так, в Южной Корее закреплен запрет на использование deepfake-видео, созданных с помощью ИИ, в течение 90 дней до дня выборов, в то время как применять ИИ для поощрения участия избирателей в выборах и внутрипартийной деятельности разрешено. В США <9> регулирование различается в зависимости от конкретного штата: в уже принятых законах или рассматриваемых законопроектах, как правило, устанавливается требование о явном указании на то, что материалы для предвыборной агитации созданы именно с помощью ИИ (например, по законодательству штатов Аризона или Делавэр); либо может закрепляться запрет на распространение таких материалов (как в штате Миннесота) с оговоркой о периоде (например, после начала периода заочного голосования) и о цели (например, повлиять на результат выборов). Европейская комиссия за демократию через право (Венецианская комиссия) указывает на необходимость запрета технологий deepfake как ограничивающих свободу избирателей принимать обоснованные решения; но оговаривает, что в отношении иных систем ИИ избиратели должны быть проинформированы о том, что взаимодействуют именно с ИИ, а не человеком <10>.
--------------------------------
<8> Safeguarding Elections from Threats Posed by Artificial Intelligence by C. Soon and S. Quek. IPS Working Papers. No. 56 (August 2024). P. 18. URL: https://lkyspp.nus.edu.sg/docs/default-source/ips/ips-working-paper-no-56_safeguarding-elections-from-threats-posed-by-artificial-intelligence.pdf (дата обращения: 08.05.2025).
<9> Summary. Artificial Intelligence (AI) in Elections and Campaigns. The National Conference of State Legislatures. 2025. URL: https://www.ncsl.org/elections-and-campaigns/artificial-intelligence-ai-in-elections-and-campaigns (дата обращения: 08.05.2025).
<10> European Commission For Democracy Through Law (Venice Commission). Opinion No. 1171/2024. URL: https://www.venice.coe.int/webforms/documents/default.aspx?pdffile=CDL-AD(2024)044-e (дата обращения: 09.05.2025).
Оба подхода - информирование о применении ИИ и его запрет - так или иначе имеют ограничительный характер, что связано с возможными рисками, которые ИИ представляет для избирательного процесса. Оценка этого дается и рядом органов конституционного контроля, на что также обратим внимание.
4. Практика органов конституционного правосудия: шаги к ограничению
Один из таких примеров - решение Конституционного Суда Румынии об аннулировании результатов президентских выборов в декабре 2024 г. <11>. В отношении ИИ Суд указал на непрозрачность его использования, из чего вытекает манипулирование волеизъявлением избирателей - притом что за государством существует "обязанность... повышать осведомленность общества об использовании цифровых технологий на выборах". В свою очередь, Венецианская комиссия в своем докладе, анализируя отмену результатов данных выборов, пришла к выводу о необходимости обеспечивать равенство возможностей для кандидатов при использовании ИИ в избирательных кампаниях, а также ввести правила, гарантирующие, что алгоритмы ИИ не будут "оказывать предпочтение определенным партиям или кандидатам по сравнению с другими" <12> наряду с осуществлением независимых проверок применяемых на выборах систем ИИ.
--------------------------------
<11> Ruling No 32 of 6 December 2024 on the annulment of the electoral process for the election of the President of Romania in 2024. Constitutional court of Romania. 2025. URL: https://www.ccr.ro/wp-content/uploads/2025/02/RULING-No-32-2024.pdf (дата обращения: 08.05.2025).
<12> European Commission For Democracy Through Law (Venice Commission). Urgent Report On The Cancellation Of Election Results By Constitutional Courts. CDL-AD(2025)003. 18 March 2025. URL: https://www.venice.coe.int/webforms/documents/default.aspx?pdffile=CDL-AD(2025)003-e (дата обращения: 03.06.2025).
Как видно, приведенные положения взаимосвязаны с некоторыми принципами проведения выборов - главным образом равенства (правило о "непредпочтении"), прозрачности (проверки систем ИИ) и открытости (из осведомленности избирателей о ИИ вытекает и понятность для них всего процесса). Но, учитывая особенности технологии ИИ (проблема объяснимости принимаемых им решений; значимость данных, подаваемых на "вход", т.е. запросов), на практике воплощение этих положений предполагает высокую степень урегулированности ИИ в электоральном процессе. Здесь вполне возможно установление конкретных (и строгих) требований как к технической составляющей систем ИИ (как они должны работать, о чем предупреждать пользователя), так и к методикам создания запросов (промптов) к ИИ (включая то, как или о чем запрещено или разрешено писать) - если они используются в избирательном процессе. Оправданность такого подхода - вопрос пока скорее открытый и дискуссионный.
Другой случай: Конституционный Суд Индонезии в одном из решений января 2025 г. запретил использование ИИ кандидатами на выборах, ссылаясь на нарушение "принципа честности выборов". Как одно из обоснований этого решения исследователи приводят роль культуры и обычаев индонезийского общества, в котором при оценке человека особое значение имеют его внешний вид, язык, поведение <13>. То есть, если такие атрибуты "искажаются" через ИИ, не раскрывая реальную картину, избирателю трудно оценить кандидата и принять решение о голосовании в его пользу.
--------------------------------
<13> Satrio, Abdurrachman: Banning AI for Political Campaigns: The Cultural Traces in the Indonesian Constitutional Court Decisions. VerfBlog. 2025. URL: https://verfassungsblog.de/banning-ai-for-political-campaigns-indonesia/ (дата обращения: 09.05.2025).
Заявитель по данному делу также выражает мнение о строгом подходе к использованию ИИ для создания агитационных материалов в виде ограничения или значительной регламентации. Основной вопрос - соблюден ли принцип честных выборов, при котором их участники должны предоставлять достоверную информацию (о себе и своем образе в том числе). Ложный же либо "приукрашенный" с помощью ИИ образ кандидата - это манипулирование волей избирателей, противоречащее данному принципу. Следовательно, использование инструментария для такого манипулирования должно быть ограничено (при этом в решении остается открытым вопрос, как сбалансировать регламентацию ИИ на выборах со свободой выражения мнения) <14>. Суд при этом заключил, что, действительно, "неверная информация может негативно сказаться на способности избирателей принимать обоснованные решения", а манипулятивное использование ИИ противоречит принципу честных выборов - одному из основных по Конституции Индонезии 1945 г. (по ст. 22E). И хотя Суд и установил ограничение на применение ИИ - в тексте решения есть небольшая ссылка на чрезмерность этого применения, т.е. значительно меняющего образ кандидата. Не исключено, что принятое решение о запрете по дальнейшим делам будет скорректировано с учетом практики проведения выборов, по итогам которых станет возможно определить подобную "меру" использования ИИ. В любом случае этот пример показывает разницу в подходах к использованию ИИ ввиду различия в ключевых конституционных принципах избирательного процесса или в их судебном толковании.
--------------------------------
<14> Mahkamah Konstitusi Republik Indonesia. PUTUSAN Nomor 166/PUU-XXI/2023. 2025. P. 34 - 35, 73, 125 - 126. URL: https://www.mkri.id/public/content/persidangan/putusan/putusan_mkri_11343_1735801113.pdf (дата обращения: 03.06.2025).
5. Риски искусственного интеллекта для избирательного процесса: к вопросу о принципах
Однако, если обобщить, обозначенные примеры демонстрируют в большей степени складывающийся консенсус применительно к ИИ: избиратели должны в том или ином виде быть осведомлены, что взаимодействуют именно с ИИ, но для ряда целей возможен и общий запрет на его использование. Возникает вопрос: в каком виде должно осуществляться такое информирование и на ком должна лежать обязанность по информированию? Участвует ли в этом только кандидат, или свою роль здесь должны сыграть "поставщики технологий", частные компании, разрабатывающие системы ИИ (учитывая, что их влияние в цифровом, алгоритмическом обществе при реализации конституционных прав неизбежно возрастает <15>)? Представляется, что в конечном итоге может потребоваться дифференциация различных технологий ИИ в зависимости от их риска как для надлежащего волеизъявления избирателей, так и для участия кандидатов в выборах, проведения ими избирательных кампаний и взаимодействия между собой. Там, где различить реального человека и ИИ затруднительно или невозможно (например, сгенерированный голос кандидата, крайне схожий с настоящим "до степени смешения") и при этом обязательность информирования об ИИ (в виде, к примеру, текстового или голосового предупреждения) "конфликтует" с практическими целями использования ИИ (достижения определенного "политического" результата), применение такой формы ИИ, скорее, должно попадать под ограничение или запрет.
--------------------------------
<15> Пибаев И.А., Симонова С.В. Алгоритмы в механизме реализации конституционных прав и свобод: вызовы цифровой эпохи // Сравнительное конституционное обозрение. 2020. N 6. С. 31 - 50.
Осведомленность избирателей и иных субъектов избирательного процесса о применении ИИ пересекается с общей необходимостью обеспечить прозрачность избирательных процедур. Здесь разумно обратиться к схожему понятию прозрачности системы ИИ, из которого следует, что о такой системе должно быть ясно, на основе каких входных данных ИИ пришел к выводам и результатам <16>. Как видно, такой принцип представляет собой информирование в более широком виде, что представляется существенным и для обеспечения открытости выборов. В случае с ИИ оно может быть реализовано через возможность ознакомиться с принципами и порядком функционирования системы ИИ, а при использовании на уровне государства (например, для целей проверки подписей), в частности, через доступность данных, на которых происходит обучение такой системы.
--------------------------------
<16> Artificial Intelligence and Human Rights, Edited by Alberto Quintavalla and Jeroen Temperman // Oxford University Press. 2023. P. 39.
В целом так выявляется необходимость учета специфики ИИ в разных вариациях его применения - при формулировании более общих правовых норм о его применении в избирательном процессе. Здесь может потребовать решения и вопрос о том, в какой степени такое регулирование будет распространяться не только на публичных субъектов права (прежде всего государство), но и на частных. Возросшая роль разработчиков и владельцев систем ИИ, не относящихся напрямую к государству, но оказывающих хотя бы опосредованное влияние на избирательный процесс (в чем может проявляться так называемый горизонтальный эффект конституционных прав), показывает, что подходы к информированию, прозрачности и открытости, связанные с ИИ на выборах, могут быть распространены и на них. Степень такого распространения может быть различна в зависимости от способа использования ИИ, его целей и стадии избирательного процесса.
Литература
1. Дьяконова О.Г. К вопросу о понятии технологий искусственного интеллекта / О.Г. Дьяконова // Вестник Университета имени О.Е. Кутафина (МГЮА). 2024. N 3. С. 52 - 63.
2. Пибаев И.А. Алгоритмы в механизме реализации конституционных прав и свобод: вызовы цифровой эпохи / И.А. Пибаев, С.В. Симонова // Сравнительное конституционное обозрение. 2020. N 6. С. 31 - 50.
References
1. Artificial Intelligence and Human Rights / eds. by A. Quintavalla, J. Temperman. Oxford University Press, 2023. 689 p.
2. Islam M.B.E. AI Threats to Politics, Elections, and Democracy: A Blockchain-Based Deepfake Authenticity Verification Framework / M.B.E. Islam, M. Haseeb, H. Batool [et al.] // Blockchains. 2024. Vol. 2. Iss. 4. P. 458 - 481.
3. Prathm Juneja. Artificial intelligence for electoral management / Juneja Prathm. Stockholm: International IDEA, 2024. 67 p. https://doi.org/10.31752/idea.2024.31.
4. Safeguarding Elections from Threats Posed by Artificial Intelligence. IPS Working Papers. No. 56 / C. Soon, S. Quek. Institute of Policy Studies (IPS), 2024. 52 p.
5. Simoes S. AI and core electoral processes: Mapping the horizons / S. Simoes, M. MacCarthaigh // AI Magazine. 2023. Vol. 44. Iss. 3. P. 218 - 239.
Наша компания оказывает помощь по написанию курсовых и дипломных работ, а также магистерских диссертаций по предмету Конституционное право России, предлагаем вам воспользоваться нашими услугами. На все работы дается гарантия.

Навигация по сайту:
Контакты:
"Горячие" документы: