IT之家 前天
智谱获浦东创投、张江集团10亿元战略投资
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

IT 之家 7 月 2 日消息,今天上午,智谱开放平台产业生态大会在上海浦东张江科学会堂举办,开源发布新一代通用视觉语言模型 GLM-4.1V-Thinking。

在智谱开放平台产业生态大会上,智谱宣布浦东创投集团和张江集团对智谱总额 10 亿元的战略投资,并于近期完成首笔交割。同时,三方还启动了一项合作,共同建设人工智能新型基础设施。

智谱今日正式发布并开源视觉语言大模型 GLM-4.1V-Thinking,这是一款支持图像、视频、文档等多模态输入的通用推理型大模型,专为复杂认知任务设计。

IT 之家从官方获悉,它在 GLM-4V 架构基础上引入 " 思维链推理机制(Chain-of-Thought Reasoning)",采用 " 课程采样强化学习策略(RLCS)",系统性提升模型跨模态因果推理能力与稳定性。

其轻量版 GLM-4.1V-9B-Thinking 模型参数控制在 10B 级别,在兼顾部署效率的同时实现性能突破。该模型在 MMStar、MMMU-Pro、ChartQAPro、OSWorld 等 28 项权威评测中,有 23 项达成 10B 级模型的最佳成绩,其中 18 项更是持平或超越参数量高达 72B 的 Qwen-2.5-VL,充分展现了小体积模型的极限性能潜力。

据官方介绍,该模型特别在以下任务中表现卓越,展示出高度的通用性与稳健性:

图文理解(Image General):精准识别并综合分析图像与文本信息;

数学与科学推理(Math & Science):支持持复杂题解、多步演绎与公式理解;

视频理解(Video):具备时序分析与事件逻辑建模能力;

GUI 与网页智能体任务(UI2Code、Agent):理解界面结构,辅助自动化操作;

视觉锚定与实体定位(Grounding):语言与图像区域精准对齐,提升人机交互可控性。

目前,GLM-4.1V-9B-Thinking 已在 Hugging Face 与魔搭社区同步开源。包含两个模型,分别是 GLM-4.1V-9B-Base 基座模型,希望能够帮助更多研究者探索视觉语言模型的能力边界作;GLM-4.1V-9B-Thinking,具备深度思考和推理能力的模型,正常使用和体验,均为这一模型。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

张江 it之家 战略投资 开源 交割
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论