阿里在除夕夜发布了 Qwen3.5 系列的首个开源模型 Qwen3.5-397B-A17B。该模型性能媲美全球顶级闭源模型,实现模型架构的全面革新。此次发布的版本总参数为3970亿,激活仅170亿,部署显存占用降低60%,推理效率大幅提升,最大吞吐量可提升至19倍。
模型采用原生多模态设计,通过早期融合方式在视觉和文本混合数据上大规模预训练,大幅新增中英文、多语言、STEM和推理等数据,在推理、编程、Agent智能体等全方位基准评估中均表现优异。
视觉能力在 MathVision、RealWorldQA、CC_OCR、RefCOCO 等基准上取得领先成绩,比之前的 Qwen3-VL 在空间定位、带图推理和学科解题任务中表现更好。它支持 1M token 上下文长度,能直接处理长达 2 小时的视频输入,而且视觉和代码能力融合,支持从手绘草图生成前端代码。
Transformer 架构上融入了获2025 NeurIPS最佳论文的自研门控技术,结合线性注意力机制与高稀疏度MoE架构,实现了397B总参数激活仅17B的极致模型效率。通过训练稳定性优化与多token预测等技术,在常用的32K上下文场景中,千问3.5推理吞吐量可提升8.6倍;在256K超长上下文情况下,Qwen3.5推理吞吐量最大提升至19倍,推理效率大幅提升。
语言支持从 Qwen3 系列的 119 种扩展到 201 种,词表扩大到 250K,小语种编码效率最高提升 60%。在推理、编程、Agent 任务上表现突出。Agent 方面支持移动端主流 APP 操作和 PC 端复杂多步骤任务,还构建了异步强化学习框架,端到端加速 3 到 5 倍,插件支持可扩展到百万级规模。
现在可以在 Qwen Chat、千问 APP 和 PC 端免费体验。模型权重已在 Hugging Face 和魔搭社区开源,阿里云百炼提供 API 服务,百万 token 最低 0.8 元。后续系列模型预计陆续开源。