【太平洋科技快讯】1 月 13 日消息,据《科创板日报》报道,DeepSeek 于 12 日晚发布最新研究论文《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(基于可扩展查找的条件记忆:大型语言模型稀疏性的新维度)。该论文由北京大学与 DeepSeek 团队共同完成,DeepSeek 创始人梁文锋再次出现在合著作者名单中。

论文提出了 " 条件记忆 "(conditional memory),与传统大模型架构相比,通过引入可扩展的查找记忆结构,在等参数、等算力条件下,显著提升了模型在知识调用、推理、代码和数学等任务上的表现。DeepSeek 同步开源了相关记忆模块 Engram。


登录后才可以发布评论哦
打开小程序可以发布评论哦