Anthropic
Anthropic — американский стартап и общественно-полезная корпорация в сфере искусственного интеллекта (ИИ), основанная бывшими сотрудниками OpenAI[3][4]. Специализируется на разработке общих систем искусственного интеллекта и языковых моделей, придерживаясь корпоративной этики ответственного использования ИИ. С конца 2022 года Google инвестировал в компанию почти 400 млн долларов, а Anthropic объявила о формальном партнёрстве с Google Cloud[5][6]. В феврале 2026 года компания привлекла 30 млрд долларов в раунде финансирования серии G, достигнув оценки в 380 млрд долларов[1].
Общие сведения
| Anthropic | |
|---|---|
| Основание | 2021 |
| Основатели |
|
| Расположение | |
| Отрасль | ИИ |
| Продукция | Claude |
| Капитализация | ▲ 380 млрд USD (2026)[1] |
| Число сотрудников |
|
| Сайт | anthropic.com |
История
Компания Anthropic была основана в 2021 году бывшими старшими сотрудниками OpenAI, главным образом Даниэлой и Дарио Амодеи, который ранее занимал должность вице-президента OpenAI по исследованиям[7][8]. Брат и сестра Амодеи были одними из тех, кто покинул OpenAI из-за разногласий в направлениях развития компании, в частности в связи с партнёрством OpenAI с Microsoft в 2019 году[9].
В феврале 2023 года на компанию Anthropic подала в суд техасская компания Anthrop LLC за использование зарегистрированной торговой марки «Anthropic A.I.». В апреле 2023 года этот судебный спор был урегулирован: стороны подали совместное уведомление о достижении мирового соглашения.
В ноябре 2024 года Amazon решила углубить сотрудничество со стартапом Anthropic, разработчиком технологий искусственного интеллекта (ИИ) и главным конкурентом OpenAI в этой области. Как следует из заявления Amazon, компания вложит ещё 4 млрд долларов в Anthropic, а его подразделение Amazon Web Services (AWS) станет ведущим партнёром по обучению ИИ-моделей стартапа. Таким образом, общая сумма инвестиций Amazon в Anthropic достигнет 8 млрд долларов, при этом Amazon останется миноритарным инвестором и без своего представителя в совете директоров стартапа[10].
22 января 2025 года стало известно, что Google решила вложить еще 1 млрд долларов в ИИ-стартап Anthropic, который уже получил более 2 млрд долларов от компании. Это решение обусловлено недавним альянсом OpenAI, Arm, Microsoft и Oracle, который заставил Alphabet обратить внимание на конкуренцию в области искусственного интеллекта. Google и Anthropic сотрудничают в разработке онлайн-инструментов и сервисов, а среди инвесторов стартапа также есть Amazon. Кроме того, Bloomberg сообщал о переговорах Anthropic на привлечение нового раунда финансирования в 2 млрд долларов, что могло увеличить капитализацию стартапа до 60 млрд долларов[11].
В мае 2025 года в ходе симулированного внутреннего предрелизного теста на безопасность модель Claude Opus 4 продемонстрировала способность к шантажу[12].
В августе 2025 года Anthropic выпустила новую версию модели искусственного интеллекта Claude Opus 4.
В сентябре 2025 года Anthropic завершила раунд финансирования серии F на 13 млрд долларов. По итогам раунда стоимость компании достигла 183 млрд долларов[13]. В том же месяце Anthropic объявила, что перестанет продавать свои продукты группам, которыми в основном владеют китайские, российские, иранские или северокорейские организации, из-за проблем с национальной безопасностью[14]. В феврале 2026 года компания объявила о завершении раунда финансирования серии G, в ходе которого привлекла 30 млрд долларов, достигнув оценки в 380 млрд долларов[1].
По информации на 6 октября 2025 года, Deloitte и Anthropic заключили партнёрство для разработки решений на основе искусственного интеллекта (AI) в регулируемых отраслях, таких как финансовые услуги, здравоохранение и общественные услуги[15].
В начале 2026 года ряд ведущих специалистов Anthropic, среди которых был глава исследовательской группы по безопасности ИИ Мринанк Шарма, покинули свои должности в знак протеста против, как они утверждали, халатности руководства корпораций, не учитывающих риски чрезмерного внедрения ИИ[16].
27 февраля 2026 года компания Anthropic отказалась выполнить требования Пентагона о полном доступе к возможностям своего ИИ Claude, ссылаясь на угрозу демократическим ценностям. Гендиректор Дарио Амодей заявил, что предложенные условия могут привести к массовому внутреннему наблюдению и использованию полностью автономного оружия. Пентагон угрожал разорвать контракт на 200 млн долларов и объявить Anthropic «угрозой для цепочки поставок», но компания настаивает на соблюдении гарантий безопасности[17]. После этого президент США Дональд Трамп призвал все правительственные ведомства перестать использовать технологии Anthropic[18]. 9 марта 2026 года Anthropic подала судебные иски против Министерства обороны США после официального присвоения компании статуса «угрозы для цепочки поставок»[19]. В марте 2026 года было создано исследовательское подразделение The Anthropic Institute под руководством Джека Кларка[20].
Проекты
Состоящая из бывших исследователей, участвовавших в разработке ChatGPT от OpenAI, компания Anthropic начала разработку собственного чат-бота с искусственным интеллектом, названным Claude. Как и ChatGPT, Claude использует интерфейс обмена сообщениями, в котором пользователи могут задавать вопросы и получать подробные и точные ответы. Первоначально Claude был доступен в закрытом бета-тестировании через интеграцию со Slack, теперь он доступен пользователям через приложение Poe от Quora на IOS[21] и Android[22], а также на одноимённом сайте.
В 2024 году китайская компания Flowith анонсировала продукт Agent NEO, позиционируя его как альтернативу Anthropic Claude.
В августе 2025 года Anthropic выпустила новую версию модели искусственного интеллекта Claude Opus 4. Новая версия эффективнее справляется с исправлением ошибок в программных кодах, повышая точность программирования до 74,5 %, а также демонстрирует высокие показатели в области глубокого анализа информации и проведения исследований[23].
26 августа 2025 года Anthropic объявила о выходе предварительной версии браузерного агента искусственного интеллекта, работающего на базе моделей Claude. Агент умеет поддерживать диалог, помогать с задачами в браузере. Если пользователь разрешит, Claude сможет выполнять некоторые действия за него[24].
В феврале 2026 года были выпущены модели Claude Sonnet 4.6 и Opus 4.6 с расширенным контекстным окном до 1 млн токенов и функцией «использования компьютера» (computer use), позволяющей взаимодействовать с графическим интерфейсом программ[25].
В феврале 2026 года Anthropic обвинила три китайские ИИ-компании — DeepSeek, Moonshot и MiniMax — в незаконном использовании чат-бота Claude для обучения собственных моделей. Компании создали более 24 тыс. поддельных аккаунтов и сгенерировали свыше 16 млн взаимодействий с Claude, применяя метод «дистилляции» с нарушением условий использования и региональных ограничений. Anthropic выразила обеспокоенность возможным использованием полученных технологий в военных и разведывательных системах, призвав к координированным мерам со стороны отрасли и властей[26]. Официальных ответов на обвинения от китайских компаний не поступало[27].
Anthropic также публикует исследования по интерпретируемости систем машинного обучения, уделяя особое внимание архитектуре — трансформер[28].
В 2025 и 2026 годах Anthropic опубликовала ряд новых исследований в области интерпретируемости искусственного интеллекта. В октябре 2025 года вышла работа «Признаки интроспекции в больших языковых моделях» (Signs of introspection in large language models), в которой были найдены доказательства способности модели Claude получать доступ к своим внутренним состояниям[29]. В феврале 2026 года в системной карте модели Claude Opus 4.6 был представлен раздел «Оценка благополучия модели» (Model Welfare Assessment). С помощью методов механистической интерпретируемости исследователи выявили в нейронной сети внутренние представления, соответствующие таким эмоциям, как паника, тревога и фрустрация, а глава компании Дарио Амодей подтвердил обнаружение активаций, связанных с тревогой[30].
В ноябре 2024 года Anthropic предложил новый стандарт для подключения помощников на основе искусственного интеллекта к системам, где хранятся данные. Инструмент назвали Model Context Protocol (MCP), он создан для улучшения работы моделей ИИ, выдачи качественных и релевантных ответов на запросы. Такие компании, как Block и Apollo, интегрировали MCP в свои системы, в то время как компании, занимающиеся разработкой инструментов, включая Replit, Codeium и Sourcegraph, планируют добавить его на свои платформы. Anthropic поделилась готовыми серверами MCP для корпоративных систем Google Drive, Slack и GitHub. В планах — предоставить наборы инструментов, которые смогут обслуживать целые организации[31].
В декабре 2025 года Anthropic передала протокол в независимый фонд Agentic AI Foundation под эгидой Linux Foundation, что закрепило статус MCP как открытого стандарта[32]. Протокол сыграл важную роль в успехе продукта Claude Code — ИИ-ассистента для разработчиков, позволив ему выполнять сложные агентные задачи и взаимодействовать с корпоративными инструментами[33].[34]
Участники
- Дарио Амодеи — соучредитель и генеральный директор
- Даниэла Амодеи — соучредитель и президент
- Джейсон Клинтон — главный специалист по информационной безопасности
- Джаред Каплан — соучредитель и главный научный сотрудник
- Бен Манн — соучредитель и член технического персонала
- Джек Кларк — соучредитель и глава по общественному благу[35]
- Ами Вора — директор по продукту (Майк Кригер перешёл в инкубатор Labs)[36][37]
- Ян Лейке — бывший исследователь OpenAI[38]
- Рахул Патил — технический директор[37]