4月29日,阿里巴巴集团旗下阿里云宣布推出新一代AI大模型Qwen3,并同步开源全部8款混合推理模型。这是继Qwen系列前代产品后,阿里云在通用人工智能领域的重要技术突破,旨在为全球开发者、企业及研究机构提供更高效、灵活且低成本的大模型解决方案。
全栈开源:覆盖多场景需求,支持免费商用
此次开源的Qwen3系列包含两款MoE(Mixture-of-Experts)模型和六款Dense模型,参数规模从0.6B到235B不等,满足从终端设备到云端计算的多样化需求:
MoE模型:旗舰级Qwen3-235B-A22B(总参数2350亿,激活参数220亿)与Qwen3-30B-A3B(总参数300亿,激活参数30亿),以高效参数激活机制实现高性能与低成本的平衡;
Dense模型:包括Qwen3-32B、Qwen3-14B等六款模型,其中Qwen3-30B-A3B的激活参数仅为同类模型QwQ-32B的10%,但性能表现更优,Qwen3-4B小模型甚至超越Qwen2.5-72B-Instruct。
所有模型均基于Apache 2.0协议开源,开发者可免费在魔搭社区、HuggingFace等平台下载商用,也可通过阿里云百炼直接调用API服务。个人用户可通过通义APP实时体验,夸克搜索即将全端集成Qwen3能力。
技术创新:双模式推理+多语言支持
Qwen3的核心突破在于引入“思考模式”与“非思考模式”动态切换机制。前者针对复杂问题(如代码生成、数学推理)启动深度分析,后者面向简单任务(如文本摘要)优先响应速度,用户可根据需求灵活调整“思考预算”,在成本与效果间实现最优平衡。实测显示,该机制使模型推理效率提升显著,同时保持输出稳定性。
此外,Qwen3支持119种语言及方言,覆盖全球多数地区的使用场景,进一步推动多语言AI应用的普惠化。其开源生态兼容主流推理框架,推荐使用SGLang、vLLM等云端部署工具,或Ollama、llama.cpp等本地化方案,降低开发门槛。
性能领跑:多项基准测试超越顶级模型
在代码、数学、通用任务等权威基准测试中,旗舰模型Qwen3-235B-A22B展现出顶尖水平,超越OpenAI o1、DeepSeek-R1等国际竞品。即便小型模型Qwen3-30B-A3B亦在特定任务中优于大参数模型,印证了阿里云“轻量化高性能”研发路线的可行性。
阿里云首席技术官周靖人表示:“Qwen3通过混合推理架构与双模式机制,重新定义了大模型的成本效率边界。我们希望以全栈开源策略,构建开放的技术生态,助力全球AI创新。”
开源生态:加速产业智能化升级
Qwen3的开源标志着阿里云在AI基础设施领域的进一步开放。目前,魔搭社区已汇聚超20万开发者,此次开源模型将推动教育、医疗、金融等垂直领域加速智能化转型。企业用户可通过私有化部署保障数据安全,中小开发者亦可基于轻量模型快速构建应用。
未来,阿里云计划持续迭代Qwen系列,拓展多模态能力并优化推理性能。用户可通过阿里云官网、魔搭社区或通义APP获取模型,即刻开启AI开发新体验。