快科技 9 月 24 日消息,在今日 2025 云栖大会上,阿里通义大模型迎来 7 连发,阿里云智能首席技术官周靖人发布了多项重磅技术更新。
通义大模型在模型智能水平、Agent 工具调用和 Coding 能力、深度推理、多模态等方面实现多项突破。
截至目前,通义大模型已成为全球第一开源模型,也是中国企业选择最多的模型。
当前,阿里通义开源了 300 余个模型,覆盖不同大小的 " 全尺寸 " 及 LLM、编程、图像、语音、视频等 " 全模态 ",全球下载量突破 6 亿次,全球衍生模型 17 万个,稳居全球第一。
超 100 万家客户接入通义大模型,权威调研机构沙利文 2025 上半年报告显示,在中国企业级大模型调用市场中,阿里通义占比第一。
在大语言模型中,阿里通义旗舰模型 Qwen3-Max 全新亮相,性能超过 GPT5、Claude Opus 4 等,跻身全球前三。
Qwen3-Max 包括指令(Instruct)和推理(Thinking)两大版本,其预览版已在 Chatbot Arena 排行榜上位列第三,正式版性能可望再度实现突破。
Qwen3-Max 是通义千问家族中最大、最强的基础模型,预训练数据量达 36T tokens,总参数超过万亿,拥有极强的 Coding 编程能力和 Agent 工具调用能力。
下一代基础模型架构 Qwen3-Next 及系列模型也正式发布,模型总参数 80B 仅激活 3B,性能即可媲美千问 3 旗舰版 235B 模型,实现模型计算效率的重大突破。
而在专项模型方面,千问编程模型 Qwen3-Coder 迎来重磅升级。
新的 Qwen3-Coder 与 Qwen Code、Claude Code 系统联合训练,应用效果显著提升,推理速度更快,代码安全性也显著提升。
其开源后调用量曾在知名 API 调用平台 OpenRouter 上激增 1474%,位列全球第二。
在多模态模型中,视觉理解模型 Qwen3-VL 重磅开源,在视觉感知和多模态推理方面实现重大突破,在 32 项核心能力测评中超过 Gemini-2.5-Pro 和 GPT-5。
Qwen3-VL 拥有极强的视觉智能体和视觉 Coding 能力,不仅能看懂图片,还能像人一样操作手机和电脑,自动完成许多日常任务。
而全模态模型 Qwen3-Omni 也惊喜亮相,音视频能力狂揽 32 项开源最佳性能 SOTA,可像人类一样听说写,应用场景广泛,未来可部署于车载、智能眼镜和手机等。
同时,用户还可设定个性化角色、调整对话风格,打造专属的个人 IP。
而在视觉基础模型中,通义万相推出 Wan2.5-preview 系列模型,涵盖文生视频、图生视频、文生图和图像编辑四大模型。
通义万相 2.5 视频生成模型能生成和画面匹配的人声、音效和音乐 BGM,首次实现音画同步的视频生成能力,进一步降低电影级视频创作的门槛。
视频生成时长从 5 秒提升至 10 秒,支持 24 帧每秒的 1080P 高清视频生成,并进一步提升模型指令遵循能力。
最后,通义大模型家族还迎来了全新的成员——语音大模型通义百聆,包括语音识别大模型 Fun-ASR、语音合成大模型 Fun-CosyVoice。
Fun-ASR 基于数千万小时真实语音数据训练而成,具备强大的上下文理解能力与行业适应性。
Fun-CosyVoice 可提供上百种预制音色,可以用于客服、销售、直播电商、消费电子、有声书、儿童娱乐等场景。
登录后才可以发布评论哦
打开小程序可以发布评论哦