超角度 9小时前
姚顺雨入职腾讯后首次公开露面:最近忙着做模型、产品
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

原文标题:《姚顺雨入职腾讯后首次公开露面:最近忙着做模型、产品,吃的好很多(发言记录来了)》

今日,AGI-Next 前沿峰会在北京举行,智谱创始人唐杰、月之暗面 Kimi 创始人杨植麟、Qwen 负责人林俊旸出席,刚刚履新 " 腾讯 CEO/ 总裁办公室首席 AI 科学家 " 的姚顺雨,也通过连线首度公开露面发言。

姚顺雨透露,最近在忙着做模型和产品,回国的感觉很好,吃的好很多。

关于模型分化这个主题,姚顺雨认为,有两个大的感受,一个感受是 to C 和 to B 明显发生了分化,另一个感受就是垂直整合这条路和模型应用分层也出现了分化。

姚顺雨表示,我们今天用 ChatGPT 的时候,其实和去年用相比,对于大部分人、大部分时候,感受变化已经没有那么强烈了,因为它能力变强大部分人感受不到,大部分人大部分时候其实不需要用到这么强的智能。尤其在中国,更多像是使用一个搜索引擎的加强版,很多时候也不知道该怎么样去用,去把它的智商激发出来。

相反,Claude Code 已经在重塑整个计算机行业。

对于 ToB 来说,很明显的一点就是智能越高,就代表生产力越高,就代表你可以赚的钱越多,这些东西都是相关联的。而且大部分时候,很多人愿意用最强的模型。

在姚顺雨眼中,腾讯是一个 To C 基因更强的公司,会思考怎么样能够让今天的大模型,或者 AI 的发展能够给用户提供更多价值。

以下是姚顺雨主要发言内容:

主题:大模型的分化

[ 主持人 ] 开场给大家讲一讲,包括你最近在忙什么?

[ 姚顺雨 ] 大家好,我现在是不是一个巨大的脸在会场?

[ 姚顺雨 ] 不好意思,今天没法亲自来北京,但是很高兴参加这个活动,最近就忙着做模型、做产品。

[ 姚顺雨 ] 对,我觉得就是一个很正常的状态。

[ 姚顺雨 ] 回国感觉还是挺好的。吃得好很多。

[ 主持人 ] 哎,顺雨,那个你能展开聊聊,就说你对模型分化这个主题的想法吗?就说硅谷,你看也都在分化,比如说 Anthropic 做了 coding,中国的很多模型做了开源,对吧?

[ 主持人 ] 过去 coding 提的也很快,包括 Google Gemini 也没有全都做,对吧?先把全模态这个做得很好,那你的老东家在重点做 ToC,对吧?

因为你是横跨中美的这个体感,就是可以给大家讲讲你的这个体感,就是接下来不管是自己也好,各家也好,就是分化这个点你是怎么思考的?

[ 姚顺雨 ] 对,我觉得有两个大的感受,一个感受是 to C 和 to B 明显发生了分化,另一个感受就是垂直整合这条路,以及模型和应用分层这条路也开始出现了分化。

[ 姚顺雨 ] 我先说第一点,很明显大家想到 AI 的 superior,现在想到的就是两个,一个是 ChatGPT,另一个是 Claude Code。大家可以认为它们分别是做 ToC 和 ToB 的典范。但很有意思的一点是,我们今天用 ChatGPT 的时候,其实和去年用相比,对于大部分人、大部分时候,感受变化已经没有那么强烈了。相反,Claude Code 可能一年前 Coding 的革命还没有开始,但现在,夸张一点说,已经在重塑整个计算机行业,做事的方式变成人不再写代码,而是用英语和电脑去交流。

[ 姚顺雨 ] 那我觉得很核心的一点就是,对于 ToC 来说,大部分人大部分时候其实不需要用到这么强的智能。对,就是说今天用 ChatGPT 和去年相比,它写抽象代数或者做伽罗华理论的能力变强了,但大部分人大部分时候感受不到。大部分人其实可能还是在,尤其在中国,更多像是使用一个搜索引擎的加强版,很多时候也不知道该怎么样去用,去把它的智商激发出来。

[ 姚顺雨 ] 但是对于 ToB 来说,很明显的一点就是智能越高,很多时候就代表生产力越高,就代表你可以赚的钱越多,这些东西都是相关联的。那对于 ToB 来说还有个很明显的点,就是大部分时候,很多人愿意用最强的模型。有可能一个模型是 200 美元一个月,第二强或者差一些的模型是 50 美元一个月或 20 美元一个月。

[ 姚顺雨 ] 我们今天发现,起码美国的很多人,会愿意花那个溢价去用最好的模型,因为可能他的年薪是 20 万美元,他每天比如要做 10 个任务,一个非常强的模型,可能 10 个任务里八九个就直接做对了,而差的模型可能只做对五六个。

[ 姚顺雨 ] 那问题就是,在你不知道这五六个是哪五六个的情况下,你就需要花很多额外精力去监控这个事情。

[ 姚顺雨 ] 其实我觉得无论是人还是模型,在 ToB 这个市场上都发现了一个有意思的现象,就是强的模型和稍微差点或者弱的模型,它们的分化会变得越来越明显。

[ 姚顺雨 ] 对,我觉得这是第一点观察,然后第二点观察就是垂直整合这条路和模型应用分层这条路的区别,我觉得一个比较好的例子可能就是 ChatGPT agent 相对于用 Claude 或者 Gemini,再加上像 Manus 这样的应用层产品,一方面就是说。

主题:大公司与创业公司做 AI 的差异

[ 姚顺雨 ] 我觉得腾讯肯定还是一个 To C 基因更强的公司,所以我觉得我们会思考怎么样能够让今天的大模型,或者 AI 的发展能够给用户提供更多价值。

但我觉得一个很核心的思考就是说,我们发现很多时候,我们的瓶颈可能在 ToC 这一端,不是更大的模型或更强的强化学习,很多时候可能是额外的 context(文本)和 environment(场景)。

我最近经常举的一个例子,比如我跟我老婆聊了很长时间天,那其实我们可以把聊天记录转发给元宝,反而会给用户带来很多额外价值。

然后我觉得 ToB 确实是一个非常难的事情,我们会思考怎么去把自己给先服务好。像创业公司做比如 coding(编程)这个事情和大公司相比,可能大公司本身就已经有很多应用场景,各种各样的 需要生产力变得更好的地方,很重要的一点就是说,对于真实世界更丰富的场景的数据的捕捉,是一个很有意思的事情。

主题:大模型应该思考的下一代概念是什么?

[ 姚顺雨 ] 自主学习几乎已经形成了一个共识,我根据我的观察,可能每个人对这个东西的定义和看法都不一样。

[ 姚顺雨 ] 我讲两点,我觉得第一点就是说我觉得这个事情的瓶颈其实不是方法论,而是数据或者任务。

[ 姚顺雨 ] 就当我们在谈论自主学习的时候,它到底是在什么样的一个场景下,基于什么样一个奖励函数去做?

比如说你在聊天的时候变得越来越个性化了,是一种自主学习;在写代码的时候就是越来越熟悉每个公司独特的环境或者文档,是一种自主学习;你去探索这个新的科学,然后在这个过程中就像一个博士一样,从完全不了解这个有机化学是什么,到变成这个领域的专家,这也是一种自主学习。

[ 姚顺雨 ] 但我觉得每一种自主学习其实挑战或者说方法论可能都不太一样。

[ 姚顺雨 ] 然后我觉得第二点就是说,我不知道这是不是个非共识,但我觉得这个事情其实已经在发生了,对吧?

很明显的 chatgpt,它是在利用这个用户数据在不断的拟合人的这个聊天的风格,使聊天的感觉越来越好,那这是不是一种自主学习。

[ 姚顺雨 ] 那今天 Claude Code,他已经写了 Claude Code 这个项目的 95%,在某种程度来说他在帮助他自己变得更好,这是不是一种自我学习?

[ 姚顺雨 ] 我记得我们当时 2022 年 23 年的时候做思维 agent,其实我去各个 AI house 去宣传这个工作,我当时写了一个第一页,这个 introduction ,就是说这个 ASI 的这个最重要的点就是自主学习。

那今天的 AI 系统其实本质上它都像是一个,它都有两部分,它首先它有个 New recode,它是一个一个模型,其次它有代码库,就是你怎么去用这个模型,是用来做推理还是用来做 agent?

它的相应的代码库,比如说我们今天看 Claude code 这个系统,它本质上有两部分,一部分是 open 这个 New recode,另一部分是怎么样去使用这个 New recode 的一大堆相应的代码,无论是这个 GPU 的,还是更往上的这个部署环境的,或者说它的这个前端,或者它的这个环境,它的这个 interface 应该什么样的?

[ 姚顺雨 ] 那当时我们想说的点就是说,那其实你做思维 agent 最大的一个初衷就是说,如果有一天思维 agent 他能自己去 improve 思维 agent recode,那他是不是就是这种理解?

[ 姚顺雨 ] 我觉得今天 Claude code 做的也在大规模的在做这个事情,但可能人们意识不到,或者说这些自主学习的例子可能还局限在每一个特定的场景下,没有让人感觉到这个非常大的威力,但我觉得就是说这个事情已经在发生了,只是说可能他学习的效率,或者说他受他场景的限制,有各种各样的问题,那可能这个事情我个人的看法是他可能会更像一个渐变,而不像一个突变。

[ 主持人 ] 诶,我再 follow 顺雨一个问题,就是有一些人对自主学习这个比较乐观,那个觉得 2026 年是能看到一些信号的,那从你看来,你觉得自主学习看到信号还有哪些实际的问题要突破呢?

比如说 long context 也好,这个模型的这个并行采样也好,或者其他从你看来,你感觉接下来还有哪些的关键条件具备了这个信号才会发生?

[ 姚顺雨 ] 那很多人说 2026 年才能看到一些信号,但我觉得 25 年其实已经有了信号。

比如说 Cursor 他们现在做的他们的 model,其实就是每几个小时就会用最新的用户数据去进行学习,包括他们现在新的 composer model 其实也是在使用我们这些真实环境下的数据去训练,当然大家觉得这个东西可能还没有特别石破天惊,是因为他们受限于他们没有预训练能力。

但我觉得这个很显然已经是一个信号,那我觉得其实最大的 bottleneck(瓶颈)是想象力,就是说假设有一天就我们可以很容易想象,比如说强化学习或者推理这个范式,它如果实现大概是什么样的?

我们可以想象一个 o1 这样的老伙计,我们在这个数学题上面本来是 10 分,现在变成了 80 分,然后我通过这个强化学习,有非常长的词表去做这个事情。

[ 姚顺雨 ] 但比如说如果 26 年或者 27 年我们有一个范式的发生,对吧?

就是说一个,包括说我宣布了一个这个新的模型,新的系统,它实现了这个东西,那我们应该用一个什么样的任务?然后它应该是个什么样的效果?

你会相信它实现的,比如说它会是一个赚钱的交易系统,它开始赚很多钱,就像这个 Trading bench ,还是说它真的解决了一个就人类之前没法解决的科学问题,还是别的,对吧?

那我觉得可能先要想象到那个 black box 是长什么样的。

[ 主持人 ] 顺雨那个因为 OpenAi 已经立了两次范式的这个创新了,你觉得如果 26、27 年有新的范式出来,全球范围内你感觉哪一家公司继续立的这个范式创新的概率最大?如果说一家公司。

[ 姚顺雨 ] 可能 OpenAi 还是会概率更大,但是我觉得因为它商业化各种各样的变化,我觉得它的这个创新的基因已经被削弱,但是我觉得它可能还是最有可能诞生新范式的地方。

[ 主持人 ] 多谢,多谢顺雨。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

腾讯 ai 创始人 北京 智商
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论