Институт безопасности ИИ
Институт безопасности ИИ (англ. AI Safety Institute, AISI) — государственная организация, предназначенная для оценки и обеспечения безопасности передовых моделей искусственного интеллекта (также называемых передовыми моделями ИИ)[1].
Вопросы безопасности искусственного интеллекта получили широкое освещение в 2023 году, в том числе в связи с публичными заявлениями о потенциальных экзистенциальных рисках ИИ. Во время саммита по безопасности ИИ в ноябре 2023 года Великобритания и Соединённые Штаты Америки создали собственные институты безопасности ИИ. В рамках Сеульского саммита по искусственному интеллекту в мае 2024 года лидеры ряда стран договорились о создании сети институтов безопасности ИИ, в которую вошли учреждения из Великобритании, США, Японии, Франции, Германии, Италии, Сингапура, Южной Кореи, Австралии, Канады и Европейского союза[2]. В 2025 году британский Институт безопасности ИИ был переименован в «Институт безопасности ИИ», а американский институт получил название Центр стандартов и инноваций в сфере ИИ (CAISI).
Хронология
В 2023 году премьер-министр Великобритании Риши Сунак заявил о намерении «сделать Великобританию не только интеллектуальной, но и географической столицей глобального регулирования безопасности ИИ» и анонсировал проведение саммита по безопасности искусственного интеллекта[3]. Он отметил необходимость независимой оценки безопасности и заявил, что компании, разрабатывающие ИИ, не должны «выписывать себе зачёт самостоятельно»[4]. В ходе саммита в ноябре 2023 года британский Институт безопасности ИИ был официально создан на основе рабочей группы по передовым моделям искусственного интеллекта[5], а американский институт безопасности ИИ был организован как подразделение NIST. Япония учредила аналогичный институт в феврале 2024 года[6].
В апреле 2024 года издание Politico сообщило, что многие компании в области искусственного интеллекта не предоставили экспертизам досрочный доступ к своим самым прогрессивным моделям. Руководитель глобальных проектов Meta Ник Клегг отметил, что компании ожидают появления единых правил и процедур от британского и американского институтов безопасности ИИ[7]. В апреле 2024 года США и Великобритания договорились провести совместное тестирование безопасности как минимум одной модели[8]. Британский Институт безопасности ИИ, ранее располагавшийся в Лондоне, в мае 2024 года объявил об открытии офиса в Сан-Франциско, где сосредоточено множество компаний в сфере ИИ. По словам министра технологий Великобритании Мишель Донелан (англ. Michelle Donelan), это часть стратегии по формированию «новых международных стандартов по безопасности ИИ»[9][10].
На Сеульском саммите по ИИ в мае 2024 года Европейский союз и другие страны подтвердили намерение создать собственные институты по безопасности ИИ, сформировав международную сеть[2].
Великобритания
В апреле 2023 года в Великобритании была создана рабочая группа по передовым моделям искусственного интеллекта (англ. Frontier AI Taskforce) с первоначальным бюджетом в 100 миллионов фунтов стерлингов[11]. В ноябре 2023 года она трансформировалась в Институт безопасности ИИ, которым продолжал руководить Йен Хогарт. Институт безопасности ИИ входит в состав британского Департамента науки, инноваций и технологий[5].
Стратегия Великобритании в области ИИ направлена на поиск баланса между безопасностью и стимулированием инноваций. В отличие от Европейского союза, который утвердил Закон об ИИ, Великобритания не спешит с принятием отдельных законов, полагая, что это может замедлить развитие сектора, а также быстро устареть из-за технологического прогресса[6].
В мае 2024 года институт опубликовал с открытым исходным кодом инструмент для оценки безопасности ИИ — Inspect, который позволяет анализировать такие параметры, как способность модели к рассуждению и степень её автономности[12].
В феврале 2025 года британская организация была переименована в Институт безопасности ИИ. По мнению некоторых экспертов, смена названия свидетельствует о том, что институт не будет рассматривать этические вопросы — такие как алгоритмическая предвзятость или свобода выражения мнений в приложениях ИИ[13].
США
Американский Институт безопасности ИИ был создан в ноябре 2023 года как часть NIST. Это произошло на следующий день после подписания Исполнительного указа 14110[14]. В феврале 2024 года на пост руководителя института была назначена бывшая советница президента Байдена по экономической политике Элизабет Келли (англ. Elizabeth Kelly)[15].
В феврале 2024 года правительство США создало Американский консорциум по безопасности ИИ (AISIC), который объединяет свыше 200 организаций, включая Google, Anthropic, Microsoft[16].
В марте 2024 года был выделен бюджет в размере 10 миллионов долларов США[17]. Аналитики отмечали, что эта сумма относительно невелика, особенно с учётом присутствия крупных компаний ИИ в стране. Сам NIST, на базе которого действует институт, также известен хроническим дефицитом финансирования[6][18]. Запрос администрации Байдена на увеличение бюджета встретил сопротивление в Конгрессе, что привело к очередным сокращениям[18][19].
Во время президентства Дональда Трампа планы участия сотрудников агентства в февральском Саммите действий по ИИ в Париже в 2025 году были отменены[20]. США и Великобритания отказались подписывать итоговое коммюнике саммита. Вице-президент США JD Vance заявил, что нужно отдавать приоритет «инновационным и способствующим росту мерам», а не вопросам безопасности[21].
В июне 2025 года организацию переименовали в Центр стандартов и инноваций в сфере ИИ (CAISI), пересмотрев и её миссию[22]. По словам министра торговли Howard Lutnick, «слишком долго цензура и регулирование прикрывались соображениями национальной безопасности. Инноваторы больше не будут ограничены этими стандартами. CAISI займётся оценкой и развитием американских инноваций в области быстроразвивающихся коммерческих ИИ-систем, одновременно обеспечивая их безопасность по стандартам национальной безопасности»[23][24]. Министерство торговли США заявило, что CAISI будет представлять американские интересы на международной арене, защищая отрасль от избыточного и ненужного регулирования со стороны иностранных государств. Центр сотрудничает с Лабораторией информационных технологий NIST[24].
Индия
Министерство электроники и информационных технологий 7 октября 2024 года провело консультации с Meta Platforms, Google, Microsoft, IBM, OpenAI, NASSCOM, Broadband India Forum, Software Alliance, технологическими институтами Индии, The Quantum Hub, Digital Empowerment Foundation и Access Now по вопросам создания Института безопасности ИИ. Было решено сосредоточиться не на регулировании, а на выработке стандартов, выявлении рисков и обнаружении ущерба — все эти направления требуют совместимых технологических платформ. Для первичного бюджета институт может использовать из 20 крор рупий, заложенных по соответствующей программе миссии IndiaAI («Безопасный и заслуживающий доверия ИИ»). В дальнейшем финансирование возможно из других компонентов этой миссии[25][26].
ЮНЕСКО и индийское министерство начали консультации по разработке методологии оценки готовности к внедрению ИИ в рамках тематики безопасности и этики ИИ с 2024 года. Их цель — поощрение этического и ответственного применения искусственного интеллекта в индустрии, а также выявление областей, где государство может усилить нормативные и институциональные возможности[27][28].
Министр электроники и информационных технологий Ашвини Вашнав 30 января 2025 года объявил о запуске индийского Института безопасности ИИ для обеспечения этичного и безопасного применения моделей искусственного интеллекта. Институт будет поддерживать развитие национальных исследований и разработок, ориентированных на социальные, экономические, культурные и лингвистические реалии Индии и основанных на индийских данных. При участии академических, исследовательских и частных организаций, институт работает по принципу «ступица со спицами» (англ. hub-and-spoke) в рамках кластера безопасности и доверия миссии IndiaAI[29][30]. Институт действует в формате «ступица со спицами» при участии ведущих учебных заведений, технологических компаний и международных организаций, включая ЮНЕСКО[31].
Примечания
Литература
- “Safety institutes to form 'international network' to boost AI research and tests”. The Independent [англ.]. 21 мая 2024. Дата обращения 2024-07-06.
- Desmarais, Anna (22 мая 2024). “World leaders agree to launch network of AI safety institutes”. euronews [англ.]. Дата обращения 2024-06-15.
- Henshall, Will (1 апреля 2024). “U.S., U.K. Announce Partnership to Safety Test AI Models”. TIME [англ.]. Дата обращения 2024-07-06.


