驱动之家 9小时前
美国AI财大气粗 国产AI学不了:Kimi仅用了1%算力就超越主流闭源
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

快科技 1 月 22 日消息,在 AI 竞赛上领先的主要是中美两国,其中美国 AI 有着得天独厚的优势,不缺钱不缺算力,但中国公司的 AI 往往面临算力限制,学不了美国 AI 的财大气粗玩法。

但这不代表国产 AI 做不出来成绩,研发出 Kimi 的月之暗面公司总裁张予彤日前在达沃斯论坛上也谈到了这个问题,表示从创业第一天起就意识到中国公司没有随意堆砌算力的条件,迫使他们通过大量基础研究的创新来换取极致的效率。

张予彤提到,Kimi 仅使用美国顶尖 AI 实验室约 1% 的计算资源,便成功推出 Kimi K2、Kimi K2 Thinking 等全球领先的开源大模型,并在部分关键性能指标上超越美国主流闭源模型。

张予彤还提到 Kimi 最新一代大模型即将发布,此前我们也报道过此事,该公司已经开启招募人员内测,名字可能是 K2.1,也有可能叫做 K2.5。

尽管月之暗面没有透露这个新模型到底有多强,但多模态及智能体 Agent 预计成为重点,在商业化前景最为明确的 AI 编程领域很有可能带来惊喜,毕竟万亿参数的规模比智谱的 GLM 4.7 及 Minimax 的 MiniMax 2.1 模型规模就要大不少,能力应该会更强。

事实上,算力紧缺不只是 Kimi 大模型遇到的,此前 DeepSeek 也在论文中提到他们的大模型面临着算力及世界知识的限制,毕竟这方面国内公司天然地就面临着不利,顶级 AI 芯片既不能买也暂时没有台积电敢给代工。

好消息是国产 AI 芯片突破的也很快,新一代 AI 芯片也会全面支持 FP8、FP4 算子标准,性能也会跟上,尽管还不能超越 NVIDIA 芯片,但通过集群设计还是可以实现性能领先的,今年应该就能看到具体的突破。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai kimi ai芯片 美国 竞赛
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论