继此前在 2 月 21 日 DeepSeek 方面预告 " 开源周 " 计划,宣布将从 2 月 24 日起陆续开源 5 个代码库,以完全透明的方式与全球开发者社区分享 " 微小但真诚 " 的研究进展后。
今日(2 月 24 日)DeepSeek" 开源周 " 如约正式启动。据了解,DeepSeek 开源的首个代码库为 Flash MLA,这是一个针对 Hopper GPU 优化的高效 MLA 解码内核,专为处理可变长度序列而设计,目前已投入实际生产应用。
据悉,MLA 即多层注意力机制,是 DeepSeek 系列模型的基本架构,旨在优化 Transformer 模型的推理效率与内存使用,同时保持模型性能。可通过低秩联合压缩技术,将多头注意力中的键(Key)和值(Value)矩阵投影到低维潜在空间,从而显著减少键值缓存(KV Cache)的存储需求。
与传统解码器相比,Flash MLA 在处理可变长度序列时,能够显著提高计算效率和速度。据 DeepSeek 方面透露,使用 FlashMLA 之后,H800 可以达到 3000GB/s 内存带宽、实现 580TFLOPS 计算性能。
对此有观点认为,这对于自然语言处理、图像识别、语音识别等需要大规模数据处理的应用场景具有重要意义,可加速模型训练和推理过程,提升 AI 应用的性能和效率。
DeepSeek 方面表示,此次开源 Flash MLA 代码库旨在激发更多开发者的创造力,推动技术的进一步发展。而通过开源,开发者可以更深入地了解 Flash MLA 的实现原理,并在此基础上进行改进和创新,共同推动 AI 技术的进步。
值得一提的是,日前 DeepSeek-R1 大模型在 HuggingFace 上获得的点赞数量已超过 10000 个,成为该平台近 150 万个模型之中最受欢迎的大模型。
根据 QuestMobile 公布的数据显示,从上线以来截至今年 2 月 9 日,DeepSeek App 累计下载量已达 1.1 亿次,周活跃用户数量最高值接近 9700 万。其中在今年的 1 月 20 日至 1 月 26 日,DeepSeek APP 周下载量达到 226 万次,次周下载量则升至 6300 万次,环比增长超 2700%。
【本文图片来自网络】
登录后才可以发布评论哦
打开小程序可以发布评论哦