财联社 11 月 13 日讯(编辑 赵昊)本周,人工智能初创公司月之暗面(Moonshot AI)的核心高管在 " 美版贴吧 "Reddit 上举行了一场 AMA(可以问我任何问题)活动,回应了多项业界热点议题。
参与这项活动的三位高管分别为杨植麟(论坛用户名:ComfortableAsk4494)、周昕宇(zxytim)和吴育昕(ppwwyyxx),三人在 24 小时内持续回答了论坛上网友提出的问题。
上周,月之暗面发布了 Kimi K2 Thinking,公司称其为 " 迄今能力最强的开源思考模型 "。因此,AMA 活动上的大多数问题与 K2 Thinking 有关,有点像是该模型线上发布会的问答环节。

有人询问,为什么 K2 Thinking 能在单次推理中实现如此长的推理时间和推理链,而 GPT5 却做不到?GPT5 Pro 通过智能体来延长推理时间,但推理效果仍然不如 K2 Thinking 单次长时间推理。未来是否会考虑进一步提升基础模型的推理速度?
杨植麟回答道:" 我认为推理时间取决于 API 的吞吐量,而推理令牌的数量则取决于模型的训练方式。我们训练 K2 Thinking 的方式倾向于使用相对更多的推理令牌以获得最佳结果。我们的 Turbo API 应该会快得多。此外,K2 原生支持 INT4 类型,这进一步加快了推理过程。"
当被问及 "FP4 相对于 INT4 的改进是否真的意义重大?" 时,周昕宇称,选择 INT4 是为了更好地兼容 " 非 Blackwell GPU",同时利用现有的 INT4 推理 marlin 内核。
吴育昕在另一个问题下称," 我们使用配备 Infiniband 的 H800 GPU;它不如美国的高端 GPU 那么好,而且我们的显卡数量也处于劣势,但我们充分利用了每一张显卡!"
有网友称,K2 Thinking 似乎使用了过多的代币。杨植麟承认了这一现象,并解释道 " 当前版本中,我们优先考虑的是绝对性能而非代币效率。我们会尝试将效率纳入奖励机制,以便它能学习如何简化思考过程。"
有人质疑,K2 Thinking 通过专门训练,以达到在高水平逻辑推理(HLE)测试中取得好成绩,但 " 它的高分似乎与实际使用中的智能水平不太相符。"
杨植麟回应称," 我们在提升智能体推理能力方面取得了一些进展,使其在 HLE 测试中得分较高。我们正在努力进一步提升其通用能力,以便在更多实际应用场景中充分发挥智能的作用。"
当网友询问 "K2 Thinking 培训费用只有 460 万美元是真的吗?" 杨植麟回答道:"这并非官方数据,因为培训成本很难量化,其中很大一部分用于研究和实验。"
在点赞最多的回答中,周昕宇透露,公司的新架构 KDA(Kernel Attention Dual Architecture)能让模型获得更高的基准测试分数,而且速度更快、效率更高,从而使我们能够更快地进行预训练、更快地部署到强化学习中,并服务更多用户。
周昕宇表示," 我们正在开发更多改进方案,完成后会与大家分享。" 杨植麟也补充道:"KDA 是我们最新的实验性架构,与 KDA 相关的想法很可能会在 K3 中得到应用。"
在被追问何时推出 K3 模型的问题中,杨植麟还调侃了 OpenAI 的首席执行官萨姆 · 奥尔特曼,他回应称,肯定能在 " 萨姆价值万亿美元的数据中心建成之前 " 推出 K3 模型。
有网友询问对 "OpenAI 为什么会烧掉这么多钱 " 的看法,周昕宇称 " 不知道。只有萨姆自己知道。我们有自己的方式和节奏。" 周昕宇还提到,月之暗面没有人工智能浏览器的计划,因为 " 不需要去套一层新的 Chromium 壳 "。
当被问及公司有没有 " 视觉 - 语言模型(VL)的计划时 ",杨植麟写道:" 是的,我们正在努力。敬请期待!"


登录后才可以发布评论哦
打开小程序可以发布评论哦