Новейшие достижения в сфере искусственного интеллекта (ИИ) вновь поразили общественность. Новые подходы к обучению высоко контекстуальных систем позволили создать генеративные системы искусственного интеллекта (GAI), включая крайне масштабные языковые модели (LLM), которые способны порождать контент, неотличимый во многих случаях от творений человеческого разума. ChatGPT (LLM) быстро завоевал популярность среди потребителей и его быстрый рост заставляет задуматься о том, как эффективно управлять и регулировать искусственный интеллект, делая этот вопрос еще более актуальным.

Обсуждения в обществе искусственного интеллекта достигли пика. Два письма, которые получили значительную поддержку от ИИ-сообщества, старались инициировать дискуссии. Представитель Института будущего жизни предложил ввести шестимесячный мораторий в экспериментах, чтобы изучить адекватные методы взаимодействия с системами. В другом письме был выделен риск исчезновения, с целью убедить политиков принять действенные меры. Хотя исходный проект Европейской комиссии, позиция Совета Европейского Союза и позиция Европейского парламента во многом совпадают, их взгляды расходятся в отношении обращения с моделями, находящимися на стадии обсуждения.

Законопроект об искусственном интеллекте (DAIA), представленный Европейской комиссией, не непосредственно касался генеративных систем искусственного интеллекта (GAI). Тем не менее, с быстрым приобретением ChatGPT популярностью среди пользователей, этот вопрос стал объектом внимания в последующих версиях законодательного процесса. Процедура принятия закона об искусственном интеллекте является неофициальной и ускоренной, известной как трилог, что представляет собой неофициальные консультации между Комиссией, Советом и Парламентом. Сейчас особенно интересно сравнивать различные подходы и изучать разнообразные методы, которыми законодательство Европейского союза может и должно решать проблему GAI.

Регуляторный подход Европейской Комиссии

Исходный проект Комиссии и внесенные Советом и Европарламентом поправки значительно различаются в своем подходе к генеративным системам искусственного интеллекта (ГАИ). Проект Комиссии непосредственно не охватывает эту категорию искусственного интеллекта. Принципиальный подход к регулированию включает три основных аспекта: классификацию искусственного интеллекта по уровням риска, определение конкретных ролей субъектов и учет отраслевых различий. До сих пор особое внимание уделяется уровням риска. Обычно различают системы искусственного интеллекта, которые вызывают:

  • Риски, которые не могут быть приемлемы, и их использование подлежит запрету в соответствии с Разделом II (Статья 5 DAIA).
  • Высокие риски, требующие регулирования, включая оценку соответствия, в соответствии с Разделом III, Главами I и II (Статьи 6 и далее DAIA).
  • Риски с ограничениями, требующие прозрачности, согласно Разделу IV.
  • Низкие риски, где внедрение добровольных кодексов поведения должно поощряться в соответствии с Разделом IX.

Основная часть предлагаемого регулирования касается систем искусственного интеллекта с высоким уровнем риска. В соответствии со статьей 6, системы искусственного интеллекта с высоким уровнем риска могут быть частью безопасности продукта, самим продуктом или конкретным приложением в отрасли, указанной как сектор с высоким риском в Приложении III. Оригинальное Приложение III включает следующие области, отнесенные к категории высокого риска: биометрическая идентификация и классификация физических лиц; управление и эксплуатация критической инфраструктуры; образование и профессиональная подготовка; занятость, управление работниками и доступ к самозанятости; доступ и пользование основными частными услугами, а также государственными услугами и льготами; правоохранительные органы; управление миграцией, убежищем и пограничным контролем; и выполнение правосудия и демократические процессы. Следовательно, статус высокого риска распределяется по отраслям.

В предлагаемом законопроекте более подробно рассматривается отраслевой подход, также обсуждаются другие аспекты, связанные с секторами:

  • Применимость DAIA в статье 2 исключена для некоторых инструментов;
  • Конкретное содержание обязательства также может быть адаптировано к потребностям отрасли посредством дальнейшего определения, например, в соответствии со статьей 40ff. DAIA;
  • Определение рисков зависит от определенных секторов в соответствии со статьей 6 (2) и приложением III DAIA;
  • Точные обязательства по оценке соответствия также зависят от секторов, как показано в статье 43 DAIA;
  • Аспекты правоприменения могут различаться в зависимости от сектора в соответствии со статьей 63ff. DAIA.

Кроме того, обязательства, которые применяются к системам с высоким уровнем риска, зависят от субъектов, на которых они распространяются. Основные категории участников:

  • Провайдеры;
  • Производители продукции;
  • дистрибьюторы;
  • импортеры, пользователи;
  • или любая другая третья сторона.

Глава 3 Раздела II описывает обязательства, соответствующие способностям и обязанностям этих субъектов. Таким образом, обязательства, которые применяются к конкретным системам искусственного интеллекта, и характер таких обязательств будут зависеть от уровней риска, роли участников и секторов. Комиссия разработала сложную, но гибкую систему регулирования искусственного интеллекта в различных обстоятельствах. Универсальный подход, выбранный Комиссией, подходит для генеративных систем искусственного интеллекта, включая большие языковые модели. Его адаптивность обеспечивает необходимый уровень гибкости для охвата самых разнообразных областей применения, таких как здравоохранение, образование и юридические технологии, различными участниками. Однако он также предлагает типичную систему координат и общую структуру. Чисто отраслевое регулирование без общей структуры может привести к увеличению требований к генеративным системам искусственного интеллекта до такой степени, что они станут слишком обременительными или даже невозможными для выполнения. Поэтому общий подход Комиссии более предпочтителен. Неудивительно, что Парламент и Совет практически не вносили радикальных изменений, ограничившись лишь осторожными модификациями проекта в этом отношении.

Поправки Совета заключаются в определении субъектов, которые обеспечивают использование общецелевых систем искусственного интеллекта.

Совет решил решить проблему роста генеративных систем искусственного интеллекта, таких как большие языковые модели, путем введения новой категории систем искусственного интеллекта, а именно систем общего назначения. Статья 3(1б) DAIA (Позиция Совета) определяет такие системы следующим образом:

«предназначены провайдером для выполнения общеприменимых функций, таких как распознавание изображений и речи, генерация аудио и видео, обнаружение шаблонов, ответы на вопросы, перевод и другие; система искусственного интеллекта общего назначения может использоваться во многих контекстах и быть интегрирована во множество других систем».

Совет выделил проблему в универсальном характере многих систем искусственного интеллекта и опасениях о том, как регулировать технологии, которые могут использоваться разнообразно. По сути, решение Совета заключается в том, что правила о системах высокого риска применяются к общецелевым системам искусственного интеллекта, которые могут использоваться в таких контекстах, если такое использование явно не исключено (статья 4б, позиция Совета). Это также дает Комиссии возможность «определять и адаптировать» требования, что расширяет полномочия Комиссии по изменению требований к системам высокого риска.

Кроме того, поставщики общецелевых систем искусственного интеллекта обязаны проводить оценку соответствия (раздел 3, позиция Совета). Однако наиболее важным является то, что статья 4б вводит изменения в обязанности поставщиков общецелевых систем искусственного интеллекта, что создает новые требования и ограничивает их обязанности. В то время как обычные поставщики систем искусственного интеллекта высокого риска, как правило, подпадают под обязательства, содержащиеся в статьях 16–25, поставщики общецелевых систем искусственного интеллекта подпадают под менее строгий набор обязательств:

  • предоставление своего имени и товарного знака (статья 16 а.а.));
  • проведение оценки соответствия (статья 16 д));
  • регистрация (статья 16f));
  • корректирующие действия (статья 16g));
  • Маркировка CE (статья 16i));
  • продемонстрировать соответствие (статья 16 j));
  • назначение уполномоченного представителя (статья 25);
  • Декларация соответствия ЕС (статья 48);
  • пострыночный мониторинг (статья 61);
  • обмен информацией с новыми конкурентами (статья 4b(5)).

Таким образом, Совет вносит новые изменения в состав участников Комиссии, ограничивая обязанности поставщиков систем искусственного интеллекта общего назначения и создавая дополнительные требования по обмену информацией напрямую с конкурентами. Это изменяет подход Комиссии к внесению изменений для определенных систем, предлагая возможность адаптировать требования Закона об искусственном интеллекте к определенным системам высокого риска.

Поправки парламента: новый класс риска для моделей фундаментов

Парламент стремится решить проблему генеративных систем искусственного интеллекта, уделяя особое внимание моделям фонда и фактически вводя отдельную категорию риска. Он определяет базовые модели как «модель искусственного интеллекта, обученную на широком спектре данных в любом масштабе, [которая] предназначена для получения универсальных результатов и может быть адаптирована к широкому кругу конкретных задач» (статья 3(1c), позиция парламента). В этом определении основное внимание уделяется не столько общности системы, сколько потенциальному использованию и возможности дальнейшей адаптации таких моделей к конкретным задачам. Это подчеркивается в Декларации 60g: «Существует значительная неопределенность относительно того, как будут развиваться модели фондов, как с точки зрения типологии моделей, так и саморегулируемости». Парламент уделяет больше внимания самим моделям, устанавливая несколько критериев для этих моделей в статье 28b (1), которые можно резюмировать следующим образом:

  • (a) Обязательство по установлению управления рисками;
  • (b) Обязательство обеспечить управление данными;
  • (c) требования к соответствующему уровню производительности, предсказуемости, интерпретируемости, корректируемости, безопасности и кибербезопасности;
  • (d) Обязательство по сокращению энергопотребления, использования ресурсов и отходов, а также по повышению энергоэффективности и общей эффективности системы.
  • (д) составить обширную техническую документацию и понятные инструкции по использованию;
  • (f) создать систему управления качеством; и
  • (g) зарегистрировать эту модель фонда в базе данных ЕС;

Статья 4a(2) поясняет, что Парламент рассматривает ограничение обязательств операторов моделей фондов, указанных в статье 28b, которые выходят за рамки систем высокого риска. Статья 28b вводит отдельный набор обязательств для моделей фондов и их поставщиков, о которых было кратко упомянуто выше. Этот четкий набор обязанностей фактически добавляет базовые модели в качестве отдельного уровня риска по классификации Комиссии и уменьшает ответственность участников в этом контексте. Это представляет облегченную версию обязанностей по сравнению с системами искусственного интеллекта высокого риска.

Среди обязательств, установленных для поставщиков моделей фондов, Парламент также внес специальный раздел, посвященный генеративным системам искусственного интеллекта (статья 28(b)(4), Позиция Парламента), которая звучит:

«Провайдеры базовых моделей, используемых в системах искусственного интеллекта, специально предназначенных для создания контента с различными уровнями автономии, такого как сложный текст, изображения, аудио или видео (генеративные системы искусственного интеллекта), и производители, специализирующиеся на базовой модели в генеративном искусственном интеллекте, обязуются:

  1. а) соответствовать обязательствам прозрачности, изложенным в статье 52 (1),
  2. б) обучать и, где это применимо, проектировать и развивать базовую модель таким образом, чтобы обеспечить адекватные гарантии против создания контента, нарушающего законодательство Союза, в соответствии с общепризнанным уровнем развития техники и без ущерба для основных прав, включая свободу выражения мнений,
  3. в) без нарушения национального законодательства или законодательства Союза об авторском праве документировать и публиковать достаточно подробное описание использования обучающих данных, охраняемых законом об авторском праве.»

Этот раздел имеет решающее значение, поскольку он определяет ГАИ и подчеркивает прозрачность, последствия создания контента для прав человека и интеллектуальную собственность как важные дополнения, которые необходимо учитывать, наряду с более общими обязательствами ГАИ в качестве основополагающих моделей.

Баланс между инновациями и ответственностью

До настоящего времени основная цель исследований регулирования искусственного интеллекта заключалась в уравнивании негативного воздействия на инновации и положительного влияния на ответственное использование искусственного интеллекта. Позиции Совета и Парламента в целом не претерпели радикальных изменений общей структуры, установленной Комиссией. Однако оба предложенных поправки действительно уменьшили нагрузку на поставщиков генеративных систем искусственного интеллекта. Изначально поправки Парламента могут показаться более поддерживающими инновации, поскольку перечень обязательств в статье 28b для базовых моделей представляет сокращенную версию требований, предъявляемых к системам искусственного интеллекта высокого риска. Однако, упрощение нормативной нагрузки сопровождается дальнейшим усложнением подхода, основанного на оценке рисков. Очень общее, краткое и открытое описание требований к базовым моделям требует пересмотра. Эта формулировка может стать причиной сложностей в понимании и интерпретации конкретных обязательств. Кроме того, существует возможность введения обширных обязательств через использование вторичного законодательства.

Преимущество подхода Совета заключается в подходе к ответственности, регулируя обязательства поставщиков систем общего назначения в зависимости от их влияния на эти системы. Предпочтительнее находить индивидуальные решения для каждой организации и обновлять их процессы, чем классифицировать системы в развивающейся области искусственного интеллекта как новый набор технологий. Подход Совета лучше соответствует устремлению установить универсальные правила, охватывающие разнообразные формы и конфигурации технологий искусственного интеллекта.

Общие обязательства по оценке рисков и соответствующее управление знаниями

Одной из проблем, с которой ни Совет, ни Комиссия не справляются, является вопрос о том, как поступить с незавершенными технологиями общего назначения, такими как ГАИ. Предсказать будущие возможности использования, открывающиеся благодаря инновациям, трудно в настоящее время. Однако социальное воздействие технологий часто связано с их использованием, которое не было предвидено на момент изобретения технологии. В начале эпохи интернета мало что было известно о положительных и отрицательных последствиях электронной коммерции и социальных сетей. Несмотря на то, что регулирование не может полностью решить проблему предсказания, существует два ключевых подхода, с помощью которых проект может быть усовершенствован.

Во-первых, следует стараться предвидеть последствия технологий на ранних этапах. Для технологий общего назначения, таких как GAI, имело бы смысл более детально определить процессы управления рисками для подобных систем. Необходимо сосредоточить оценки и меры по уменьшению последствий на потенциальном влиянии будущих технологий и предусмотреть постоянную адаптацию. Кроме того, в этих процессах должны участвовать заинтересованные стороны. Механизмы участия уже определены в статье 35(7) Общего регламента о защите данных, а также в статье 35 и декларативной части 90 Закона о цифровых услугах. Для осознания влияния технологий необходимы различные точки зрения и наблюдения, поэтому поставщикам универсальных систем требуется нечто более глубокое, нежели возможность отразить всё самостоятельно.

Вторым важным дополнением будет управление и обмен знаниями. В предложении и внесенных изменениях уже содержатся хорошие идеи, такие как предложение Совета о том, что поставщики универсальных систем искусственного интеллекта должны делиться знаниями о соблюдении требований с конкурентами, выходящими на рынок, в соответствии со статьей 4b (4). В своих поправках к Приложению VII Парламент также предложил внести обязательство сообщать информацию о базовых моделях в базу данных по системам искусственного интеллекта высокого риска. Дополнительно следует учесть посредничество знаний между разработчиками искусственного интеллекта и теми, кто использует конкретные услуги на его основе. Простые и эффективные обязательства и инфраструктура для обмена знаниями о рисках и стратегиях их уменьшения, как вертикального, так и горизонтального, обеспечат доступ к информации и сократят недостаток информированности.

Что будет дальше?

Компании и новаторы, занимающиеся созданием искусственного интеллекта, активно работают над вопросами регулирования. Они выступают за создание системы, которая позволит им разрабатывать и использовать эту мощную технологию ответственно, чтобы минимизировать риски непредвиденных и потенциально вредных последствий. Это явное требование предоставляет значительную и уникальную возможность для законодателей ЕС. Они находятся на пороге новых возможностей, обладая потенциалом создать нормы, которые могут стать стандартом по всему миру. Однако эти нормы не должны быть навязаны из-за требований рынка, а их принятие не должно зависеть от экономического давления на адресатов. Вместо этого, им следует усилить свое влияние, так как они обладают глубоким пониманием значительных последствий больших систем искусственного интеллекта, включая ГАИ. Разработав обоснованное и перспективное регулирование, законодатели ЕС смогут взглянуть на искусственный интеллект с новой стороны. Они имеют возможность разработать план для использования потенциала искусственного интеллекта, обеспечивая защиту человечества от рисков и создавая будущее, в котором технология искусственного интеллекта будет использоваться ответственно и, в некоторых случаях, для поддержания целей, изложенных в договорах ЕС и Хартии.

Закон ЕС об искусственном интеллекте: генеративный искусственный интеллект как вызов регулированию
""