量子位 3小时前
3D版Nano Banana来了!AI修模成为现实,3D生成进入可编辑时代
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

过去一年,AI 的主战场几乎被大模型、生图和生视频占满。2026 年伊始,市场终于开始把目光投向一个更难、也更关键的领域:3D 生成

1 月 23 日,Google 收购 3D 生成公司 Common Sense Machines 的消息传出,后者整个团队并入 DeepMind;1 月 26 日,Google 又迅速宣布与 Epic Games 的合作。市场普遍猜测:3D 版本的 "Nano   Banana",是不是已经不远了?

但率先将这一能力产品化的,是中国团队。

本周末,全球领先的 3D 生成平台 Hyper3D 发布了 Rodin Gen-2 Edit,推出基于自然语言的 3D 模型局部编辑功能,率先实现 3D 版 Nano Banana ——这是业内首个将 "3D 生成 " 与 "3D 编辑 " 整合为完整工作流的商用产品,3D 生成正式进入可编辑时代。

与以往只能 " 抽卡 " 的逻辑不同,Rodin Gen-2 Edit 支持两种核心路径:

在 Hyper3D 内文 / 图生 3D 后,直接对结果进行局部修改

导入任意现有模型(包括第三方 AI 生成模型或历史资产),在原模型基础上进行编辑

操作逻辑简单直接:框选需要修改的区域,输入文字指令,即可完成局部调整。

例如,只需框选机甲的双臂区域,输入提示词 " 双手改成大炮 ":

即可生成一台红色装甲的大炮机器人:

修改区域与原模型衔接自然,结构逻辑完整,其余部分则被完整保留。

这一功能不仅支持 Hyper3D 平台生成的模型,任何第三方 3D 资产(包括历史存量模型或其它 AI 工具生成的模型)都可以导入平台进行编辑:

这意味着 Rodin 的编辑能力已成为平台级基础设施,而非单点功能。

一番体验下来,Hyper3D Rodin 所带来的最新玩法无疑是行业最前沿技术的体现,仅通过自然语言就可以修改、增加、减少模型部件,还不会影响其他模型结构,确实给 3D 修模带来一点小小的震撼。

在基础 3D 生成能力上,Hyper3D Rodin 本就处在当前行业的第一梯队:不仅能精准还原参考图的结构、比例与关键细节;尤其是表面平滑、边缘锐利,对生产级资产尤为友好。

结合实测经验,给大家两个核心使用小提示:

编辑时的框选区域不宜过小或过度聚焦细节,不适用模型的细节精修;

需保证框选位置与修改 Prompt 精准对应,易出理想效果。

Edit 的意义在于,第一次把 3D 从 " 结果展示 " 推进到了 " 可迭代工作流 "。

过去几年,生成式 AI 的进化路径非常清晰:先生成→再可控→最终可编辑。不论是图像、视频,还是 3D,多模态生成在发展早期,往往难以逃避 " 抽卡 ",即每次生成都是通过更换随机种子,得到更多不一样的结果,匹配用户需求。

随着 ControlNet 等技术的发展,用户逐渐可以在生成前,通过多种信号的引导补充,来更好地让生成结果满足用户需求,减少抽卡次数。

2024 年 3 月,Hyper3D 上线业内首个控制生成技术(3D ControlNet)。

但因为生成式 AI 输入信息的有限和特性,即永远是从少量信息去生成更多信息,决定了哪怕生成能力再强,二次调整都会成为高频需求。

图像领域已经历完整周期:从 Stable Diffusion 的一键出图,到 ControlNet 的控制,再到 2025 年上半年 Gemini 2.5 Flash 首次引入图片编辑,GPT-4o 的图像生成,再到强大的 Nano Banana,生成式 AI 编辑技术已经得到了很大的发展。视频领域也正在加速复刻这一路径,Luma AI 的 Video Modify、Runway 的 Aleph 也已实现相关能力。

但在 3D 生成由于产品化起步更晚、生态更分散、工具链更长,行业整体在 " 可控生成 " 积累得不够久,多数团队还停留在这一阶段:用户可以生成一个模型,但只要有局部不满意,往往只能换提示词、换随机种子、重新来一遍," 随机抽卡 "。

Hyper3D 将这一需求转化为产品能力:通过 " 选中局部 + 文本指令 " 的方式,让修改变成明确的路径,而非一次次推倒重来。

在实测中我们发现,Hyper3D Rodin 的 " 编辑 " 并非单一功能,而是与其强大的 " 可控性 " 体系相辅相成。

对于专业用户而言,Hyper3D 提供了一套完整的工作流:其将图像 / 文本生成、3D ControlNet 精准控模、局部定向修改、资产二次创作与多格式导出、DCC 插件等多个平台能力打通,颠覆了传统 AI 3D 创作低效不可控的模式。

3D ControlNet 控制:通过边界框、点云、体素等模式,在生成阶段精准控制几何结构

BANG 分件:递归拆解复杂模型,为局部编辑提供语义基础

Smart Low-poly:智能低模优化,提升生产效率

Text-to-Edit:基于自然语言的定向修改,降低专业门槛

Rodin Gen-2 Edit 同步上线 Smart Low-poly 智能低模

在商业化落地层面,Rodin 已经打通 Blender、Maya、Unity 等主流工作流;与国内头部大型 UGC 游戏的合作验证了其在移动端大规模用户场景下的稳定性;与拓竹的合作则让生成模型可直接进入 3D 打印流程。

在 3D 编辑能力普遍缺席的当下,Hyper3D 能率先交付产品,源于团队在 "3D 可控性 " 上的长期技术积累。

几年前,当行业普遍采用 "2D 升维 3D" 的算法路径时,Hyper3D 团队选择了更艰难的原生 3D 路线。这意味着需要直面 3D 数据瓶颈,在算法和框架层面进行底层创新——但也只有这条路,才能从根本上解决薄面、拓扑混乱等产业应用的致命问题。

2024 年,团队发布原生 3D 大模型框架 CLAY(提名 SIGGRAPH 最佳论文),并基于此推出全球首个原生 3D 大模型产品 Hyper3D.AI Rodin,将 3D 生成效果首次从 " 不可用 " 拉到 " 可用线 "。

如今,原生 3D 已成行业共识。Hyper3D 团队定义了 3D 生成的 " 可用性拐点 ",也让 3D 生成成为中国团队在全球 AI 竞争中少数真正领先的方向之一。

从 Rodin 的第一个版本起,该团队就引入了 3D ControlNet,此后每个版本都在更新相关能力。去年,随着 Rodin Gen-2 上线,Hyper3D 交出了业内唯一的递归分件技术—— BANG,一步步验证了这一路线的可行性。3D 生成也一步步从 " 抽卡游戏 " 进化为了 " 可控设计 "。

艺术家 @汽水 PPao 使用 Hyper3D.AI Rodin 创作的作品

但该团队的视野不止于单物体编辑。其获得 SIGGRAPH 2025 最佳论文的 CAST 技术,已指向下一阶段方向:从单图生成包含物体、关系和物理约束的完整 3D 场景——这为参与构建未来 " 世界模型 " 与具身智能基础设施埋下伏笔。

这一系列成果也获得资本认可。仅 2025 年,Hyper3D 团队就连续完成由顶级美元 VC 和战略产业方投资的两轮融资。

虽然现阶段的 Rodin Gen-2 Edit 作为 3D 生成编辑的全新起点,尚未达到完美状态。但不可否认,作为当前市场上唯一能产品化这项功能的团队,其已经走出了 3D 编辑的关键一步。

当 3D 生成从 " 能不能做出来 " 迈向 " 能不能真正用起来 " 的阶段,Hyper3D Rodin Gen-2 Edit 的上线,无疑为行业提供了一个极具参考价值的范本。

目前,新功能已在 Hyper3D 平台上线,支持用户免费体验。

官网链接:https://hyper3d.ai/rodin

一键三连「点赞」「转发」「小心心」

欢迎在评论区留下你的想法!

—    —

点亮星标

科技前沿进展每日见

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

nano ai google deepmind
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论