10 月 22 日,通义千问团队正式推出 Qwen3-VL 家族的两款全新密集型(Dense)模型——2B 与 32B,不仅填补了现有产品线的关键档位,更将整个系列的开源模型数量推至 24 个,构建起从轻量级到超大规模的完整技术生态。
至此,Qwen3-VL 家族已拥有四款 Dense 模型(2B、4B、8B、32B)和两款 Mixture of Experts(MoE)架构模型(30B-A3B 与 235B-A22B),参数规模横跨 20 亿至 2350 亿,精准覆盖从边缘设备部署到云端超大规模推理的全场景需求。更值得注意的是,所有模型均提供 Instruct(指令微调)与 Thinking(推理增强)两个版本,开发者可根据任务特性灵活选用。
为兼顾性能与效率,阿里云还同步发布了 12 款 FP8 量化版本模型。这些轻量化变体在几乎不损失精度的前提下,显著降低显存占用与推理延迟,让高性能多模态 AI 能在更多实际业务中快速落地。
所有 Qwen3-VL 开源权重模型现已全面开放,用户可在魔搭(ModelScope)社区与 Hugging Face 平台免费下载,并支持商业用途。这一策略不仅大幅降低了企业接入前沿多模态能力的门槛,也为学术界与创业团队提供了即拿即用的技术基座。
标签: 通义千问 Qwen3-VL Mixture of Experts(MoE)架构模型