Qwen
Qwen — семейство крупных языковых моделей, разработанное китайской компанией Alibaba Cloud. Также известно как Tongyi Qianwen (кит. упрощ. 通义千问). В июле 2024 года Qwen заняла первое место среди китайских языковых моделей в ряде тестов и третье место в мире, уступив лидерам от Anthropic и OpenAI.
Что важно знать
| Qwen | |
|---|---|
| Тип | чат-бот |
| Разработчик | Alibaba Cloud |
| Написана на | Python |
| Операционные системы | веб-приложение, Android |
| Последняя версия | Qwen3-Max / Qwen3-235B-A22B / Qwen3-Next (5 сентября 2025 / 25 июля 2025 / 11 сентября 2025) |
| Репозиторий | github.com/QwenLM/Qwen |
| Лицензия | Apache 2.0, Qwen Research License, Qwen License |
| Сайт | chat.qwen.ai |
Модели
В апреле 2023 года Alibaba впервые представила бета-версию Qwen под названием Tongyi Qianwen. Архитектура модели основана на Llama, разработанной Meta AI. В сентябре 2023 года Qwen был открыт для широкой публики после получения одобрения со стороны китайских властей. В декабре 2023 года стали доступны для скачивания модели 72B и 1.8B, а веса Qwen 7B были опубликованы в августе. Модели Qwen иногда называют открытыми, однако исходный код обучения и датасеты не опубликованы и не соответствуют критериям Open Source AI Definition или Model Openness Framework от Linux Foundation.
В июне 2024 года появилась серия Qwen2, а в сентябре были опубликованы некоторые модели с открытыми весами, в то время как наиболее продвинутые версии остались проприетарными. В линейке Qwen2 имеются как плотные, так и разрежённые модели.
В ноябре 2024 года была выпущена модель QwQ-32B-Preview, ориентированная на рассуждение (reasoning) подобно OpenAI o1, под лицензией Apache 2.0, но только с опубликованными весами — без предоставления датасета и метода обучения. QwQ поддерживает контекст длиной 32 тысячи токенов и превосходит o1 в ряде тестов.
Серия Qwen-VL — это линейка мультимодальных моделей, объединяющих Vision Transformer и языковую модель. Были представлены версии Qwen2-VL с двумя и семью миллиардами параметров.
В январе 2025 года анонсирована линейка Qwen2.5-VL с вариантами на 3, 7, 32 и 72 миллиарда параметров[1]. Все модели, кроме 72B, распространяются под лицензией Apache 2.0[2]. Флагманская визуальная модель Qwen-VL-Max к 2024 году продаётся в облаке Alibaba Cloud по цене $0,00041 за тысячу входных токенов.
Компания также распространяет специализированные семейства, такие как Qwen-Audio и Qwen2-Math. В целом опубликовано более 100 моделей с открытыми весами, а количество загрузок превысило 40 миллионов. Любительские версии с дополнительным обучением, такие как «Liberated Qwen» от San Francisco-based Abacus AI, снимают все ограничения на ответы.
29 января 2025 года была запущена Qwen2.5-Max. Согласно блогу Alibaba, Qwen2.5-Max превосходит конкурирующие foundation-модели, в том числе GPT-4o, DeepSeek-V3 и Llama-3.1-405B по ключевым тестам. В феврале 2025 года Alibaba объявила на своей официальной странице X (бывший Twitter) об открытии доступа к 2.5-Max, но сама модель пока не выложена в открытый доступ[3].
24 марта 2025 года выпущена Qwen2.5-VL-32B-Instruct как преемник модели Qwen2.5-VL; она доступна под лицензией Apache 2.0[4].[5]
26 марта 2025 года была представлена Qwen2.5-Omni-7B под лицензией Apache 2.0. Она доступна через chat.qwen.ai и такие платформы, как Hugging Face, GitHub и ModelScope. Qwen2.5-Omni принимает на вход текст, изображения, видео и аудио и может генерировать как текст, так и аудио-ответы, что позволяет использовать её для голосового общения в реальном времени, аналогично OpenAI GPT-4o.
28 апреля 2025 года выпущено семейство моделей Qwen3, все представители которого лицензированы под Apache 2.0. Включает как плотные (0,6B, 1,7B, 4B, 8B, 14B и 32B параметров), так и разрежённые модели (30B с 3B активируемых параметров, 235B с 22B активируемых параметров). Обучение проводилось на 36 триллионах токенов на 119 языках и диалектах. Все модели, кроме 0,6B, 1,7B и 4B, поддерживают контекстное окно в 128 тысяч токенов. По аналогии с OpenAI o1 и QwQ 32B, Qwen3 поддерживает рассуждение, которое можно включать и отключать через токенизатор. Модели Qwen3 доступны через chat.qwen.ai, а также для скачивания с Hugging Face и ModelScope[6].
5 сентября 2025 года Alibaba представила Qwen3-Max[7]. Согласно официальному аккаунту Alibaba в X, данная модель опережает другие foundation-модели без поддержки рассуждений, такие как Qwen3-235B-A22B-Instruct-2507, Kimi K2, Claude 4 Opus Non-thinking и DeepSeek V3.1[8]. В Qwen3-Max не реализован отдельный режим рассуждений[9].
10 сентября 2025 года вышла модель Qwen3-Next на лицензии Apache 2.0; она также распространяется через chat.qwen.ai, Hugging Face и Model Scope. Qwen3-Next включает две постобученные версии: Instruct и Thinking. Архитектура Qwen3-Next стала развитием Qwen3, в ней особое внимание уделено масштабируемости по длине контекста и числу параметров. Среди ключевых новшеств: гибридный механизм внимания, разрежённая структура Mixture of experts, устойчивые к дестабилизации методы обучения и генерация нескольких токенов одновременно для ускорения инференса. На базе Qwen3-Next создана модель с 80 млрд общих параметров и 3 млрд активных; она сопоставима с Qwen3-32B по качеству, затрачивая менее 10 % ресурсов на обучение (в GPU-часах), а при инференсе на длинных контекстах (32k+) её пропускная способность более чем в 10 раз выше. Планируется, что Qwen3.5 получит усовершенствованную версию этой архитектуры[10].
В ноябре 2025 года у нейросети Qwen появилось мобильное приложение с виртуальным помощником[11].
| Версия | Дата выхода | Примечания |
|---|---|---|
| Tongyi Qianwen | сентябрь 2023 | |
| Qwen-VL | август 2023 | |
| Qwen2 | июнь 2024 | |
| Qwen2-Audio | август 2024 | |
| Qwen2-VL | декабрь 2024 | |
| Qwen2.5 | сентябрь 2024 | |
| Qwen2.5-Coder | ноябрь 2024 | |
| QvQ | декабрь 2024 | |
| Qwen2.5-VL | январь 2025 | |
| QwQ-32B | март 2025 | |
| Qwen2.5-Omni | март 2025 | |
| Qwen3 | апрель 2025 | |
| Qwen3-Coder | июль 2025 | [12] |
| Qwen3-Max | сентябрь 2025 | [7] |
| Qwen3-Next | сентябрь 2025 | [13] |


