钛媒体 3小时前
谷歌推出最强手机端开源模型Gemma4 E2B/E4B
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

文 | 硬唠 intalk

2026 年 4 月 2 日凌晨,Arena AI 的开源模型排行榜在沉寂数周后突然刷新。

这一天没有硅谷惯有的盛大发布会,Google DeepMind 首席执行官 Demis Hassabis 仅在 X 上发布了一条简短的消息。随后,一个名为 Gemma 4 31B Dense 的中量级模型,以惊人的斜率杀入全球开源前三。

在它上方的,是参数量数倍于它的庞然大物;在它下方的,是过去一年统治社区的几支老牌主力。

在开发者社区,31B 这个数字显得极不寻常。它既不追求超大规模的混合专家架构(MoE),也未试图在参数量上追赶闭源旗舰。它像是一个精准的切片,切开了开源 AI 长期以来 " 大即是美 " 的共识。

没人预料到,这家曾在开源竞赛中动作迟缓的巨头,会选择在清晨以一种近乎 " 冷启动 " 的方式,宣告对开源高地的重夺。

更令人意外的是,Gemma 4 E2B 和 E4B 虽然总参数量分别为 5.1B 和 8B,但它们采用了逐层嵌入(PLE)实际激活的 " 有效参数 " 仅为 2.3B 和 4.5B,极大降低了手机和笔记本电脑的内存和运行门槛。

在带有原生多模态能力的端侧极小尺寸区间,业界认为 Llama 4 和 Qwen 3.5 目前都没有能与 Gemma 4 E2B/E4B 直接对标的产品。对于纯端侧或边缘部署,Gemma 4 目前被认为是最强的选择。

维度

Gemma 4 ( E2B / E4B )

Qwen 3 ( 1.7B / 4B )

核心差异结论

实际激活参数

2.3B / 4.5B

1.7B / 4B

Gemma 同等性能下显存占用极低。

最大上下文

128K

32K

Gemma 4 碾压。

支持模态

文本、图像、视频、原生音频

文本、图像、视频

Gemma 4 独占原生音频。

推理 Token 消耗

极低 ( ~1.1K Tokens )

极高 ( ~9K Tokens )

Gemma 4 效率碾压。

极限视觉并发

较弱

极强 ( ~280 张图 )

Qwen 3/3.5 碾压。

最低内存门槛

4GB / 5.5-6GB ( 4-bit 量化 )

3GB / 4GB ( 4-bit 量化 )

Qwen 的物理体积下限更低。

根据社区总结,Gemma 4 E2B/E4B 除了在图像批量处理时弱于 Qwen1.7B / 4B 外,在上下文,原声语音处理,推理能力上均实现了大幅度领先。

第一章:每参数智能

在 Google 的战略里,这场战争的关键词不是 " 规模 ",而是 " 每参数智能 "(Intelligence-per-parameter)。

长期以来,开源社区被分为两派:一派是以 Meta 为代表的堆料竞赛,试图用千亿参数换取逻辑能力;另一派是以 DeepSeek 为代表的成本学派,通过 MoE 架构降低推理开销。

Google DeepMind 此次推出的 Gemma 4 系列——包括 E2B、E4B、26B MoE 和 31B Dense ——试图开辟第三条路径:在有限的 " 权重 " 内压榨出极限的智能。 这种 " 反向进化 " 的核心支撑是 TurboQuant 压缩算法。

根据 Google Research 在 3 月底披露的技术细节,这项技术能将 KV 缓存压缩至 3 比特,在 H100 GPU 上实现 8 倍的注意力计算加速,且在 MMLU Pro 等核心指标上实现 " 零精度损失 "。

数据的跳跃是直观的。Gemma 4 31B 的 MMLU Pro 得分达到 85.2%,而在代表数学巅峰能力的 AIME 2026 测试中,它跑出了 89.2% 的高分。相比之下,前代 27B 模型的这一数字仅为 20.8%。

Google 此次不仅交出了权重,还交出了控制权。Gemma 4 全系采用了商业友好的 Apache 2.0 协议,彻底终结了此前版本在商用授权上的扭捏。

在端侧,Google 展现了更为激进的收割姿态。通过 AICore 开发者预览版,Gemma 4 E2B 和 E4B 被直接集成进 Android 系统级接口。在 Pixel 手机和 Raspberry Pi 上,新模型的推理速度提升了 4 倍,电池消耗则降低了 60%。

对于 Google 而言,这不再仅仅是一场关于排行榜位次的争夺,而是一场关于谁能定义 " 有用 " 的生存战:如果模型不能装进用户的口袋,那它对 Google 的移动生态便毫无意义。

第二章:中式合围

当 Google 试图用 31B 重新定义 " 每参数智能 " 时,它的对手们正驻守在另一条壕沟里。 在中国大模型厂商的战略坐标中,智能的衡量标准不是参数的瘦身,而是复杂问题的 " 暴力破解 " 与工程场景的 " 绝对占有 "。

DeepSeek 在 2026 年初再次加固了它的逻辑护城河。根据行业披露,DeepSeek-V4 采用了一种极端的 1T 总参数 MoE 架构,尽管每次推理仅激活 37B 参数,但其引入的 Engram 条件内存技术,让模型在 1M 上下文内展现出了极强的记忆稳定性。

更具杀伤力的是其 V3.2 系列引入的 " 思考模式 "(Thinking mode)。在针对 STEM 领域、逻辑纠错 and 复杂代码生成的测试中,这一模式允许模型在给出答案前进行大规模的 " 自我博弈 "。

BentoML 的技术分析指出,DeepSeek 的这种思路在于:如果端侧模型暂时无法在短时间内追上闭源旗舰的直觉,那就通过 " 多想几步 " 来补齐。这直接切中了金融和科研开发者对 " 逻辑确定性 " 的需求。

而在生产力工具层面,阿里巴巴的通义千问 Qwen 3.5 系列则展现了近乎残酷的工程压制力。 在 2026 年 3 月底的 LM Studio 测评中,Qwen 3.5 的 32B 模型在 HumanEval 编程测试中报出了 88.0 分的惊人数据。

这意味着,在处理具体、细碎且容错率极低的工业级编程任务时,Qwen 的表现甚至优于部分体量大它三倍的国际模型。

这种竞争格局形成了一个微妙的 " 中式合围 ":DeepSeek 占据了 " 深思熟虑 " 的智力高地,Qwen 占据了 " 开箱即用 " 的工程低地。

对于开发者而言,选择不再单一。如果你需要一个能够深入理解 Android 底层系统并进行离线多模态交互的伙伴,Gemma 4 是首选。但如果你是在寻找一个能够处理 100 万字技术文档、或者在云端以最低成本生成百万行代码的 " 劳动力 ",DeepSeek 和 Qwen 依然拥有难以逾越的迁移壁垒。

这场战争的下半场,正从 " 谁的分数高 " 转向 " 谁的护城河更难被跨越 "。Google 拿出了手术刀般精准的参数效率,而它的中国对手们,则在逻辑与工程的堡垒里,筑起了更厚的墙。

第三章:最后一百米

在大模型的世界里,算力的账本往往比排行榜的得分更具决定性。

如果说 DeepSeek 依靠超大规模 MoE 架构在云端实现了推理成本的极限压缩,那么 Google DeepMind 的 Gemma 4 则试图在硬件的 " 最后一百米 " ——也就是用户的手机与开发者的工作站里,建立一套全新的结算体系。

2026 年 4 月,Google 宣布将 Gemma 4 全系迁移至 Apache 2.0 协议。这不仅仅是一个版权声明的变更,而是一个明确的信号:Google 正在放弃对模型的直接 " 控制税 ",转而追求 " 覆盖率 "。

WaveSpeed AI 的分析指出,此前的许可协议中存在的 MAU 限制和用途审查,一直是企业级开发者站队的阻碍。而现在,随着协议的彻底放开,Gemma 4 31B 模型能够以 " 无锁 " 状态直接进入医疗、国防等对数字主权极度敏感的领域。

相比之下,DeepSeek 等厂商虽然开源,但在跨国商业授权上的透明度仍是不少跨国企业观望的原因。 更深层的壁垒被建立在操作系统内部。 在 Android AICore 的开发者预览版中,Gemma 4 获得了系统级的 " 特权插槽 "。

这意味着,当开发者调用 E2B 或 E4B 模型进行实时语音识别或离线视频处理时,其效率是未经优化的第三方模型的 4 倍,且电池损耗仅为后者的 40%。这种 " 软硬一体 " 的垂直整合,是目前任何中国模型厂商都难以逾越的系统级护城河。

算力的经济账同样在倒向 " 中量级 " 模型。根据 Spheron 的测算数据,Gemma 4 31B Dense 的权重能够完整塞入单张 80GB 的 NVIDIA H100 GPU 显存中,实现 FP8 精度的满速推理。

这是一个极其微妙的平衡点。DeepSeek V3.2 为了维持其顶尖的逻辑能力,至少需要 8 张 H100 组成的集群才能高效运转。对于绝大多数中小型初创企业而言,这意味着每小时推理成本从 2.40 美元到 19.20 美元的跨越。

"Google 并不是在制造一个最聪明的模型,"Constellation Research 分析师 Holger Mueller 评价道," 它是在制造一个能让开发者在不更换硬件的前提下,所能买到的、性价比最高的智能。"

在这场最后一百米的终刺冲刺中,Google 选择了绕开昂贵的云端军备竞赛,直接降落在全球数十亿部 Android 设备与数百万个工作站的显存里。

当竞争对手还在争论谁的逻辑更接近人类时,Google 已经在思考,如何让 AI 像电力一样,低廉且隐形地流经每一块电路板。

第四章:未知胜负与未解之局

在这场关于 " 效率 " 与 " 主权 " 的突袭战中,计分板上的数字正在发生微妙的漂移。 根据 Design News 在 2026 年 3 月底发布的行业分析,AI 技术的突破正在以超乎预期的速度削减部署成本。

这种削减不仅发生在云端机房,更发生在离散的、边缘的每一个节点。 目前的竞争格局已经清晰:

Google 通过 Gemma 4 确立了在端侧生态位上的统治力。当一个开发者在没有网络连接的情况下,依然能利用手机端的 E4B 模型进行复杂的图像语义理解,且电池消耗仅仅下降了几个百分点时,Google 就已经在 " 装机权 " 上赢下一局。

这种 " 软硬一体 " 的先发优势,正在让 Android 系统变成一个巨大的、由开源模型驱动的神经系统。 然而,中国厂商并没有在算力的账本前退缩。

DeepSeek-V4 与 Qwen 3.5 的存在,证明了即便是在参数效率极高的时代,对于 " 重型逻辑 " 和 " 工业级精度 " 的需求依然旺盛。只要企业还需要处理百万行代码,只要科研还需要在公理丛林中寻找路径,中国模型在逻辑护城河内的统治力便难以动摇。

真正的变数在于 Apache 2.0 协议。 当 Google 彻底推倒许可权的高墙,原本在各阵营间摇摆的企业级用户,开始意识到 " 数字主权 " 的价值。在未来的 24 个月里,竞争的重点将 from " 谁的模型更聪明 ",转向 " 谁的模型更不容易被收割 "。

这场关于 31B 与超大参数规模的对撞,本质上是一次关于 AI 本质的重新定义。它不再是实验室里的贵重摆设,也不再是只有巨头才能负担的昂贵博弈。

2026 年 4 月 3 日,距离 Gemma 4 发布不到 48 小时。

在旧金山的一间共享办公空间里,一名独立开发者正试着在断网状态下,通过一部 Pixel 手机运行实时语音翻译。屏幕上的文字跳动得飞快,推理速度比上一代提升了整整 4 倍。 而在地球的另一端,杭州的一家物流初创企业,正利用 Qwen 3.5 自动生成的代码重新部署其核心调度系统。

这两幕场景背后,是两套截然不同的计算哲学:一个是极致的口袋化,一个是极致的生产力。 当智能像电力一样,以近乎零成本的姿态流经每一块单片机和显存时,谁是排行榜上的第一已经不再重要。

重要的是,在这场算力与逻辑的战争中,昂贵的智能正在变成一种廉价的公共资源。 这一年,端侧 AI 的全球渗透率预测将首次突破 35%。大模型的上半场在云端云雾缭绕,而下半场,正悄无声息地落进每一个人的口袋里。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

开源 竞赛 首席执行官 物理
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论