阿里通义千问推出迄今为止最强语言模型,以1万亿参数规模引领大语言模型技术竞争新高度。2025年9月5日,阿里通义千问团队正式推出了Qwen3-Max-Preview模型,这是该系列迄今为止最强大的语言模型。该模型参数量达到1万亿(1T)级别,在多个国际基准测试中表现卓越,被誉为通义千问系列的“性能巅峰”。
01 技术突破:万亿参数背后的飞跃
Qwen3-Max-Preview基于Qwen3系列架构构建,但在多个核心维度实现了突破性提升。与2025年1月发布的版本相比,新模型在推理计算、指令响应、多语言处理及长尾知识覆盖等核心能力上进行深度优化。该模型采用了专门的“知识幻觉”抑制技术,通过改进注意力机制和知识蒸馏技术,使模型输出可靠性显著提升。这一改进在医疗、法律等专业领域尤为重要,大幅降低了错误信息传播的风险。
02 性能表现:全面超越主流竞品
在多项国际基准测试中,Qwen3-Max-Preview展现出令人瞩目的成绩。该模型在Arena-Hard v2基准测试中领跑榜单,在AIME25数学推理测试中获得80.6分的高分,展现出强大的逻辑思维能力。在通用知识(SuperGPQA)、编程(LiveCodeBench v6)、人类偏好对齐(Arena-Hard v2)以及综合性能力评估(LiveBench)等关键测评维度中,该模型均超越了Claude-Opus 4(Non-Thinking)、Kimi-K2、DeepSeek-V3.1等主流竞品。
03 多语言能力:支持百种语言,翻译准确率提升37%
Qwen3-Max-Preview在语言支持方面实现了显著提升。该模型支持超过100种语言的交互,其翻译准确率和常识推理能力较前代产品提升约37%。特别是在跨语言文化场景中,模型表现出更强的适应性,为全球化应用提供了更好的支持。增强的多语言能力使得该模型在不同文化背景的对话中更加得心应手。
04 商业化应用:阶梯定价降低成本
阿里为Qwen3-Max-Preview设计了灵活的商业化策略。模型采用按输入长度阶梯计费模式,根据不同的使用需求提供分层定价。具体来说,0-32K tokens区间的输入收费为0.006元/千token,输出为0.024元/千token;而128K-252K区间的输入收费为0.016元/千token,输出为0.06元/千token。在OpenRouter平台上,定价为输入每百万tokens 1.20美元(约合人民币8.6元),输出每百万tokens 6美元(约合人民币42.8元)。
05 企业级优化:增强RAG和工具调用能力
针对企业用户,Qwen3-Max-Preview专门优化了检索增强生成(RAG)和工具调用接口。这些优化使企业能够更高效地整合外部知识库和执行复杂操作,为复杂工作流处理提供了全新体验。不过研发团队明确表示,该版本未配备专门的“深度思考”模式,更适合需要快速响应的实时交互场景。
06 开源与闭源双轨策略构建生态壁垒
Qwen3-Max-Preview作为阿里闭源旗舰模型,与开源系列形成互补,构建阿里大语言模型行业生态壁垒。这种双轨推进策略吸引从中小企业到行业巨头的广泛参与,为不同规模的用户提供了适合的解决方案。Qwen3-Max-Preview现已通过阿里云百炼平台向企业用户开放,并在通义千问应用及Qwen Chat上提供免费体验。
即日起,开发者可通过通义千问官网和OpenRouter平台调用新模型API,亲身体验万亿参数模型的卓越能力。这款模型的发布,标志着中国在大语言模型技术领域已跻身全球第一梯队,为AI产业创新发展树立了新的里程碑。