2月25日,通义千问(Qwen)团队宣布其开源大模型家族Qwen3.5迎来重要更新,一次性发布三款中等规模新模型,并同步上线了对应的生产级托管服务。这是继除夕开源Qwen3.5-397B-A17B旗舰模型后,阿里在大模型开源领域的又一次密集动作。
三款新模型亮相,性能超越尺寸限制
本次开源的三款模型包括Qwen3.5-35B-A3B、Qwen3.5-122B-A10B和Qwen3.5-27B。基于架构创新与训练突破,这三款模型均创下了中等尺寸模型的性能新高,超越了更大尺寸的上代旗舰模型。
其中,Qwen3.5-35B-A3B的表现已全面超越前代更大参数规模的Qwen3-235B-A22B等模型,体现了通过优化架构、数据与强化学习协同,而非单纯增加参数来提升智能的技术路径。Qwen3.5-122B-A10B则在复杂Agent任务(如多步推理、工具调用)中表现亮眼,进一步缩小了中小模型与顶尖闭源模型的性能差距。
值得注意的是,本次还推出了千问3.5家族中的首个密集(Dense)模型Qwen3.5-27B。这款主打“小尺寸、高能效”的模型同时拥有更强的Agent能力和原生多模态能力,在工具调用、搜索、编程等多个Agent评测中均超过了GPT-5 mini,在视觉推理、文本识别和理解、视频推理等多项视觉理解能力榜单中也超越了Qwen3-VL旗舰模型和Claude Sonnet 4.5。该模型可运行于单个GPU,对本地部署极为友好。
托管服务上线,性价比优势凸显
面向企业级生产应用,阿里云百炼平台正式上线了基于Qwen3.5-35B-A3B的托管版本——Qwen3.5-Flash API。该服务默认支持高达100万tokens的上下文长度,并内置了官方原生工具链,开箱即用,无需额外集成。
在定价方面,Qwen3.5-Flash延续了阿里云一贯的激进性价比策略,每百万Token输入成本低至0.2元。这一价格定位将极大降低企业和开发者应用大模型的门槛,适合处理工作、生产、生活的日常AI任务。
技术创新:混合注意力机制与稀疏MoE架构
千问3.5模型采用混合注意力机制,结合高稀疏的MoE架构创新,并基于更大规模的文本和视觉混合Token上进行训练。新模型以更小的总参数和激活参数量,实现了更大的性能提升,在指令遵循(IFBench)、博士级别推理(GPQA)、数学推理(HMMT 25)、多语言知识(MMMLU)、Agent工具调用(BFCL v4)、Agentic Coding(SWE-bench Verified)等多个权威榜单上,新模型均超越了远大于其规模的Qwen3-235B-A22B模型及Qwen3-VL,以及GPT-5 mini等模型。
开发者友好:可直接部署于消费级显卡
千问3.5新模型甚至可直接部署于消费级显卡,实现了真正的开发者友好。目前,开发者与研究人员可通过GitHub、Hugging Face或魔搭(ModelScope)社区下载上述开源模型进行研究与微调。企业用户则可前往阿里云百炼平台直接体验Qwen3.5-Flash API服务。
数据显示,截至目前,阿里已开源千问模型超400个,全球下载量突破10亿次,衍生模型数超20万,千问稳居全球第一开源模型。除夕开源的Qwen3.5-397B-A17B模型已登顶Hugging Face全球榜首。此次新模型的发布,被视为阿里云推动大模型技术普惠与加速产业落地的又一重要举措。