Регламент Европейского союза об искусственном интеллекте
Регла́мент об иску́сственном интелле́кте (также Зако́н об иску́сственном интелле́кте или Зако́н об ИИ) — правовой акт Европейского союза об искусственном интеллекте. Был принят Европейским парламентом 13 марта 2024 года[1][2] и одобрен Советом ЕС 21 мая 2024 года[3]. Направлен на создание общей нормативно-правовой базы для использования искусственного интеллекта[4]. 2 февраля 2025 года вступила в силу первая часть требований закона[5].
О законе
Сфера действия закона охватывает все отрасли (кроме военной) и все виды искусственного интеллекта. Будучи нормативным актом в отношении продукции, он не будет наделять правами отдельных лиц, но будет регулировать деятельность поставщиков систем искусственного интеллекта и организаций, использующих их в профессиональной деятельности.
Закон ЕС об искусственном интеллекте направлен на классификацию и регулирование приложений, использующих искусственный интеллект, в зависимости от риска причинить вред пользователю. Исходя из предложенной классификации продукты ИИ можно разделить на три категории[6]:
- запрещённые системы;
- системы с высокой степенью риска;
- остальные системы искусственного интеллекта.
К запрещённым системам относятся те, которые используют искусственный интеллект для сублиминального манипулирования или использования уязвимых мест людей, что может привести к физическому или психологическому ущербу, неизбирательное использование дистанционной биометрической идентификации в реальном времени в общественных местах для обеспечения правопорядка или использование властями «социальных баллов», полученных с помощью ИИ, для несправедливого ущемления прав отдельных лиц или групп[7]. Закон полностью запрещает последние, а для первых трёх предлагается режим разрешения в контексте правоприменения[8].
Согласно закону, системы с высокой степенью риска — это системы, представляющие значительную угрозу здоровью, безопасности или основным правам человека. Они требуют обязательной оценки соответствия, проводимой поставщиком, перед выпуском на рынок. Особо важные приложения, например, для медицинских устройств, требуют, чтобы оценка поставщика в соответствии с требованиями Закона об искусственном интеллекте рассматривалась нотифицированным органом, проводящим оценку в соответствии с существующими нормами ЕС, например, Положением о медицинских устройствах[8].
Системы искусственного интеллекта, не относящиеся к вышеперечисленным категориям, не подлежат никакому регулированию, при этом государства-члены в значительной степени лишены возможности дальнейшего их регулирования посредством максимальной гармонизации. Существующие национальные законы, касающиеся разработки или использования таких систем, не применяются. Однако предусматривается создание, хотя и с опозданием, добровольного кодекса поведения для таких систем[6].
Закон также предлагает создать Европейский совет по искусственному интеллекту, который будет содействовать национальному сотрудничеству и обеспечивать соблюдение правил[9].
Подобно Общему регламенту Европейского союза по защите данных, Закон об искусственном интеллекте может стать глобальным стандартом[10]. Он уже влияет на законодательство стран за пределами Европы: в сентябре 2021 года Конгресс Бразилии принял законопроект, создающий правовую базу для искусственного интеллекта[11]. Европейский совет принял свой общий подход к Закону об искусственном интеллекте 6 декабря 2022 года[12]. Германия поддерживает позицию Совета, но все же видит необходимость в дальнейших улучшениях, что было сформулировано в сопроводительном заявлении государства. Среди мер, которые, вероятно, будут предложены, — обязать разработчиков ИИ для таких продуктов, как ChatGPT от Open AI, заявлять, использовались ли материалы, защищённые авторским правом, для обучения их технологии.
Исполнение
Закон регулирует внутренний рынок ЕС. Он содержит наиболее важные положения, которым должны соответствовать все системы искусственного интеллекта, желающие получить доступ на внутренний рынок ЕС. Эти требования называются «существенными требованиями». Эти требования передаются европейским организациям по стандартизации, которые разрабатывают технические стандарты, дополнительно конкретизирующие основные требования.
Закон требует, чтобы государства-члены создали свои собственные нотифицированные органы. Оценка соответствия должна проводиться для того, чтобы проверить, действительно ли системы искусственного интеллекта соответствуют стандартам, изложенным в Законе об ИИ. Эта оценка соответствия проводится либо путём самооценки, что означает, что поставщик системы ИИ сам проверяет соответствие, либо путём оценки соответствия третьей стороной, что означает, что оценку проводит нотифицирующий орган. Нотифицирующие органы сохраняют возможность проводить аудиты для проверки правильности проведения оценки соответствия[13].
Согласно текущему предложению, многие системы ИИ с высоким уровнем риска не требуют оценки соответствия третьей стороной, что вызывает критику со стороны некоторых экспертов. Эта критика основана на том, что системы ИИ с высоким уровнем риска должны быть оценены независимой третьей стороной, чтобы полностью обеспечить их безопасность.


