Команда Qwen представила Qwen3.5-397B-A17B — флагманскую визуально-языковую модель с открытыми весами. Её позиционируют как основу для «нативных мультимодальных агентов»: от программирования и сложных рассуждений до работы с интерфейсами и видео.
Модель уже доступна в веб-версии Qwen Chat и в приложении, а также на Hugging Face и через ModelScope. Для облачного использования есть версия Qwen3.5-Plus через официальный API. Детали в материале Postium.
Читайте также: 5 лучших нейросетей для работы
Нейросеть Qwen3.5-397B-A17B — что умеет и как работает
В основе — гибридная архитектура. Инженеры объединили Gated Delta Networks с механизмом линейного внимания и разреженную Mixture-of-Experts.
Общий объём модели — 397 млрд параметров. Но во время генерации активируются только 17 млрд. Система динамически «включает» нужных экспертов, а остальные остаются неактивными. Это снижает вычислительную нагрузку по сравнению с плотными моделями сопоставимого масштаба.
Задача архитектуры — сохранить уровень «тяжёлых» флагманов и одновременно ускорить инференс.
Модель мультимодальная. Она работает с текстом и изображениями, поддерживает взаимодействие с GUI, анализ видеоконтента и агентные сценарии с цепочками действий. Поддерживается 201 язык и диалект.
Контекст — 262 144 токена нативно, с расширением до 1 010 000 токенов.
Лицензия Apache 2.0 позволяет использовать модель в коммерческих продуктах без ограничений исследовательского формата.
Если смотреть на бенчмарки, Qwen3.5-397B-A17B особенно уверенно выглядит в задачах, близких к реальным агентам. В OmniDocBench v1.5 (документы) она показывает 90,8 — выше GPT-5.2, Claude Opus 4.5 и Gemini 3 Pro. В BrowseComp (агентный веб-поиск) разрыв ещё заметнее: 78,6 у Qwen против 65,8 у GPT-5.2, 67,8 у Claude и 59,2 у Gemini.

А вот в SWE-bench Verified (агентный кодинг) Qwen уже не лидер — 76,4 против 80,0 у GPT-5.2 и 80,9 у Claude, то есть держится рядом, но уступает.
Как пользоваться
Модель можно использовать двумя способами — через готовый интерфейс или развернуть самостоятельно.
В Qwen Chat и мобильном приложении достаточно выбрать модель «Qwen 3.5» в списке доступных моделей. В интерфейс есть русский язык, пользоваться можно бесплатно.

Открытые веса можно скачать с Hugging Face или ModelScope и развернуть самостоятельно. Для облачного сценария доступен официальный API с моделью Qwen3.5-Plus.
Почему это важно? Рынок движется в сторону агентных систем, которые не просто генерируют текст, а читают длинный контекст, анализируют изображения, работают с интерфейсами и выполняют последовательности действий.
В таких сценариях критичны скорость и стоимость каждого шага. MoE-подход в Qwen3.5 — попытка сделать крупную мультимодальную модель пригодной для реальной эксплуатации, а не только для демонстраций.
Напомним, что в сентябре 2025 года Alibaba последовательно обновила линейку Qwen. Сначала, компания представила Qwen3-Omni — мультимодальную модель, которая работает с текстом, изображениями, аудио и видео. А затем вышла Qwen3-Max — крупнейшая на тот момент модель компании с более чем 1 трлн параметров и контекстом до 262 тысяч токенов.
Итог: Qwen3.5-397B-A17B — это ставка на крупную мультимодальную модель с архитектурой MoE, где масштаб сочетается с более низкой вычислительной нагрузкой и открытой лицензией.
Запись Alibaba представила Qwen3.5-397B-A17B — открытую нейросеть для ИИ-агентов впервые появилась Postium.