Регулировании искусственного интеллекта в России

Регулирование искусственного интеллекта (ИИ) в Российской Федерации — это комплекс нормативно-правовых и этических мер, направленных на развитие технологий при сохранении государственного контроля[1]. Основу системы составляет «Национальная стратегия развития ИИ»[2].

К 2026 году законодательство сфокусировалось на маркировке ИИ-контента и введении ответственности за создание дипфейков[3]. Критика со стороны экспертного сообщества указывала на сохраняющуюся правовую неопределённость в вопросах авторского права[4] на результаты работы нейросетей, отсутствие чётких механизмов ответственности за ошибки алгоритмов и зависимость отрасли от импортной аппаратной базы в условиях санкционных ограничений[5].

Общие сведения
Регулирование искусственного интеллекта в России
Дата начала 2019 (стратегия)
Дата окончания 1 сентября 2027 (вступление закона)
Причина Обеспечение технологического суверенитета и безопасности
Участники Минцифры, Правительство России, Бизнес
Результат Формирование правовой базы для нейросетей
Основной акт ФЗ «Об основах госрегулирования ИИ»
Ключевые реестры Реестр доверенных моделей ИИ

Хронология

В 2019 году была утверждена первая Национальная стратегия развития искусственного интеллекта на период до 2030 года, которая заложила основы государственной поддержки отрасли[6].

В 2020 году принят Федеральный закон номер 123-ФЗ об экспериментальном правовом режиме в Москве, что позволило тестировать технологии ИИ, в том числе беспилотный транспорт и ИИ в медицине, в реальных условиях в течение пяти лет[7].

В 2021 году состоялось подписание Кодекса этики в сфере ИИ, в рамках которого крупнейшие ИТ-компании страны добровольно обязались соблюдать принципы безопасности и человекоцентричности[8][9].

В 2024 году произошло обновление Национальной стратегии, где больше внимания стало уделяться достижению полного технологического суверенитета и созданию собственных больших языковых моделей[10].

В марте 2026 года правительство официально представило для общественного обсуждения проект федерального закона Об основах государственного регулирования сфер применения технологий ИИ[11].

В апреле 2026 года бизнес-сообщество и крупнейшие корпорации представили пакет критических правок к законопроекту[12].

Основные положения законопроекта (2026)

Правительственная инициатива направлена на то, чтобы очертить круг прав и обязанностей всех субъектов ИИ-рынка. Законопроект вводит официальные определения для таких понятий, как ИИ-система, ИИ-модель, разработчик, оператор и владелец сервиса. Согласно планам Минцифры, нормы закона должны вступить в силу с 1 сентября 2027 года[13][14].

Законопроект разделяет нейросети на категории, определяющие уровень их допуска к государственным и критическим заказам. Суверенные и национальные модели представляют собой разработки, полностью созданные в России. К ним предъявляются требования по обучению на территории страны силами исключительно российских граждан или юридических лиц с государственным участием более 50 процентов. Данные для обучения таких моделей также должны быть сформированы в России. Для них предусмотрена приоритетная государственная поддержка и создание благоприятных условий внедрения[15][16].

Доверенные модели представляют собой системы, которые получили разрешение на работу в государственных информационных системах и на значимых объектах критической информационной инфраструктуры. К таким объектам относятся сети связи и системы в энергетике, медицине, финансах и транспорте. Чтобы попасть в специальный реестр доверенных моделей, ИИ должен пройти проверку безопасности в ФСБ и ФСТЭК[17], подтвердить качество работы по отраслевым стандартам и обрабатывать все данные строго на территории России. Правительство может сделать использование таких моделей обязательным на отдельных объектах.

Обязанности участников рынка

Разработчик модели ИИ обязан гарантировать отсутствие в алгоритмах функционала, который может привести к дискриминации людей на основе их поведения или личностных качеств. Также разработчики должны проводить моделирование потенциальных рисков и информировать партнёров о том, что модель нельзя использовать в запрещённых целях. Оператор системы ИИ отвечает за безопасную эксплуатацию. Он обязан составить документацию и руководство по эксплуатации для пользователей, проводить регулярное тестирование системы и предоставлять информацию о функциональном назначении и ограничениях системы. Оператор должен немедленно приостанавливать работу ИИ, если выявлена угроза жизни граждан, безопасности государства, имуществу или окружающей среде[18].

Владелец ИИ-сервиса несёт нагрузку по соблюдению законодательства. Он должен принимать меры, чтобы сервис не использовался в противоправных целях, и внедрять механизмы, ограничивающие возможность создания материалов, противоречащих российскому законодательству. Для сервисов с аудиторией более 500 тыс. пользователей в сутки вводятся требования закона Яровой по хранению данных и содержания сообщений пользователей с предоставлением их по требованию правоохранительных органов[19]. Также владельцы обязаны маркировать любой контент, созданный нейросетью. Крупные платформы с аудиторией более 100 тыс. человек должны проверять наличие маркировки и удалять немаркированный ИИ-контент[20].

Пользователь ИИ-сервиса обязан соблюдать правила доступа к сервису, использовать его только в целях, не противоречащих законодательству, и отказаться от действий, направленных на обход встроенных механизмов безопасности. Кроме того, пользователи обязаны соблюдать права и интересы третьих лиц при использовании сгенерированного контента. Ответственность за нарушающий закон результат будут нести разработчик, оператор, владелец и пользователь соразмерно степени вины каждого.

Критика

После публикации законопроекта более 150 экспертов из крупнейших российских компаний и объединений, включая Роснефть, Россети, МегаФон и Wildberries, направили свои замечания в правительство. Бизнес утверждает, что требование формировать датасеты и обучать суверенные модели исключительно на территории России технически невыполнимо из-за нехватки релевантных данных на русском языке и отсутствия необходимой вычислительной инфраструктуры. Представители компаний предложили ввести трёхлетний переходный период для этого требования и разрешить использование общедоступных данных из интернета независимо от расположения серверов[21].

Торгово-промышленная палата и ассоциации цифровых платформ указали, что ограничение только российскими данными приведёт к деградации качества моделей и усилит технологическое отставание. По их мнению, в России сейчас нет моделей, полностью соответствующих заявленным критериям суверенности, так как все разработки используют зарубежные компоненты. Также ТПП отметила, что требования противоречат договору о ЕАЭС, гарантирующему свободное движение данных. Эксперты предупредили, что принятие закона в текущем виде увеличит расходы компаний на внедрение ИИ на 20-40 процентов, а время вывода новых продуктов на рынок вырастет в полтора или два раза[22].

Представители медицины и связи опасаются, что запрет на использование недоверенных моделей в критической информационной инфраструктуре парализует работу больниц, так как многие уже внедрённые системы диагностики базируются на иностранных средствах разработки. Это может лишить граждан доступа к современным методам лечения. Также критику вызвала норма, которая фактически позволяет использовать авторские произведения для обучения ИИ без разрешения правообладателей, что прямо противоречит Гражданскому кодексу. Кроме того, бизнес предложил исключить из текста неправовые категории, такие как духовно-нравственные ценности, чтобы избежать неопределённости при допуске моделей на рынок.

Инфраструктурная и международная политика

Законопроект предусматривает создание перечня привилегированных центров обработки данных для ИИ[23]. Эти объекты смогут заключать долгосрочные договоры на электроэнергию по фиксированным ценам, будут освобождены от платы за технологическое присоединение к сетям и получат преимущество при присоединении. Также они смогут покупать энергию по регулируемым тарифам, сниженным относительно уровня промышленных потребителей, и претендовать на прямое бюджетное финансирование и налоговые льготы.

В сфере международного сотрудничества Россия заявляет о стремлении к лидерству в формировании единого пространства доверенных технологий, особенно в рамках партнёрств со странами БРИКС и ЕАЭС. Задачей ставится продвижение отечественных технологий за рубежом и использование технологических заделов для сокращения разрыва между странами-партнёрами. При этом вводится понятие трансграничных технологий ИИ, работа которых может быть запрещена или ограничена в России в случаях, которые установит специальное законодательство[24].

Мировой опыт

В 2024 году в ЕС вступил в силу «Закон об ИИ» (AI Act), который классифицирует технологии по уровню риска: системы с «неприемлемым риском» (например, социальный скоринг) полностью запрещены, а для моделей общего назначения и биометрических систем введены строгие требования к прозрачности и аудиту данных[25].

В КНР регулирование ориентировано на идеологический контроль и государственную безопасность. Китайские власти первыми ввели обязательную регистрацию алгоритмов и жёсткие правила для генеративного ИИ, требующие, чтобы контент соответствовал местным ценностям[26].

В США акцент сделан на рыночную конкуренцию и добровольные обязательства компаний перед Белым домом, однако ключевые ведомства (например, FTC) начали активно пресекать дискриминацию и монополизацию в сфере ИИ-сервисов[27].

Примечания

© Правообладателем данного материала является АНО «Интернет-энциклопедия «РУВИКИ».
Использование данного материала на других сайтах возможно только с согласия АНО «Интернет-энциклопедия «РУВИКИ».