猎云网 1小时前
刚刚,DeepSeek发布V4预览版,震撼行业
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

来源:猎云精选;文 / 孙媛

没等来正式版,预览版先来了。

就在今天,DeepSeek 官宣,全新系列模型 DeepSeek-V4 的预览版本正式上线并同步开源。

根据官方资料显示,DeepSeek-V4 拥有百万字超长上下文,在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。

而预览版的出现,不仅把 " 万亿参数 "、"1M 上下文 " 这些令人炫目的技术指标尘埃落地,更预示着一场深刻的 "AI 革命 " 正在发生。

要知道,DeepSeek-V4 将首次实现对华为昇腾、寒武纪、海光信息等国产 AI 芯片的同步深度适配,这标志着全球首个顶级 MoE 大模型全栈国产落地。

而就在今天,DeepSeek-V4 昇腾首发也将在 B 站开播,意味着 DeepSeek V4 将在华为昇腾 AI 处理器上完成适配和部署——国产大模型 + 国产算力的标志性组合,国产替代正加速突围。

两相结合来看,DeepSeek 这一步,无不在揭开国内 AI 基础设施自主可控的序幕。

百万上下文成标配,两个版本即可调用

DeepSeek-V4 作为深度求索最新一代基础模型,最大亮点在于结构创新和超高上下文效率。

根据官宣资料显示,DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求。

要知道一年前,1M(一百万)上下文还是 Gemini 独家的王牌。而现在,DeepSeek 直接把 1M 上下文变成了所有服务的标配。

而除了百万上下文普惠化,DeepSeek-V4 还对 Agent 能力进行专项优化,针对 Claude Code 、OpenClaw、OpenCode、CodeBuddy 等主流的 Agent 产品进行了适配和优化,在代码任务、文档生成任务等方面表现均有提升。

目前,模型按大小分为 DeepSeek-V4-Pro、DeepSeek-V4-Flash 两个版本。

其中,DeepSeek-V4-Pro 性能比肩顶级闭源模型,分别体现在三方面。

一是,相比前代模型,Agent 能力显著增强。

在 Agentic Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。

目前 DeepSeek-V4 已成为公司内部员工使用的 Agentic Coding 模型,据评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式存在一定差距。

二是,在世界知识测评中, DeepSeek-V4-Pro 世界知识储备大幅领先全部开源模型,仅略逊于 顶尖闭源模型 Gemini-Pro-3.1。

三是,通用推理能力,比肩全球顶级闭源。

在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。

而相比 Pro 版本,DeepSeek-V4-Flash 则是更快捷高效的经济之选。

虽然对比 DeepSeek-V4-Pro,DeepSeek-V4-Flash 在世界知识储备方面、高难度任务上稍逊一筹,但却分别展现出了接近的推理能力,以及在简单任务上的旗鼓相当。

同时,由于模型参数和激活更小,V4-Flash 还能够提供更加快捷、经济的 API 服务。

目前,V4-Pro 与 V4-Flash 最大上下文长度为 1M,均同时支持非思考模式与思考模式,已开放调用。

其中思考模式支持 reasoning_effort 参数设置思考强度(high/max),官方建议,对于复杂的 Agent 场景使用思考模式,并设置强度为 max。

DeepSeek" 王者归来 ",传估值已近 200 亿美元

DeepSeek-V4 预览版本的发布,标志着大模型进入 " 高效化、轻量化、场景化 " 的新阶段,而 MoE 架构作为实现 " 大参数、高效率 " 的核心路径,有望成为未来大模型研发的主流方向。

从当前适配情况来看,DeepSeek-V4 系列可兼容主流 GPU 芯片,同时针对国产算力芯片进行了专项优化,为国产芯片的落地提供了重要场景支撑。

对于国产算力芯片(如寒武纪思元、壁仞 BR100、沐曦 MX1 等)而言,DeepSeek-V4 的轻量化设计(如 V4-Flash 型号)为其提供了适配场景——相较于传统大模型对芯片算力的极致依赖,V4-Flash 的激活参数量仅 13B,对芯片显存、算力的要求相对温和,能够让国产芯片在中低端算力场景中实现 " 性能适配 ",加速国产芯片的商业化落地。

由此,对于国产算力生态而言,DeepSeek-V4 的突破为国产大模型与国产算力芯片、服务器的协同发展提供了重要契机,有望打破海外算力生态的垄断,推动国产算力产业链的自主可控。

而除了推动中国 AI 行业发展外,DeepSeek-V4 预览版本的面世,也是 DeepSeek 现阶段发展的一剂强心针。

DeepSeek 成立于 2023 年,由量化资管公司幻方量化的创始人梁文锋创立,一直以开源模型为核心,商业化上没有太多动作,主要靠幻方量化提供资金支持。

但从去年下半年开始,其 " 江湖地位 " 开始撼动。

一方面,在字节阿里等大厂的重投入下,DeepSeek 已经掉到了 C 端用户量第三。

第三方数据机构 QuestMobile 数据显示,截至 2026 年 3 月,AI 原生 App 中,字节豆包、阿里千问、DeepSeek 排名前三位,月活用户规模分别为 3.45 亿元、1.66 亿元和 1.27 亿元。

另一方面,AI 人才争夺如火如荼,DeepSeek 也被 " 挖墙角 "。

据晚点 LatePost,2025 年下半年至今,DeepSeek 至少 5 名核心研发成员确认离职——第一代大语言模型核心作者王炳宣去了腾讯,V3 核心贡献者罗福莉被雷军千万年薪挖至小米,R1 核心研究员郭达雅以传闻近亿元总包入职字节跳动 Seed 团队,OCR 系列核心作者魏浩然和多模态成果核心贡献者阮翀也先后离开。5 个人,覆盖了基座模型、推理、OCR、多模态四条核心技术主线。

而这边,DeepSeek 略显失意,另一边,同为大模型独角兽,智谱科技和 MiniMax IPO 后,市值却在一度冲顶。

诸此种种,都让 DeepSeek 很难再保持低调。

4 月 17 日,DeepSeek 首次被曝出以不低于 100 亿美元估值寻求融资,计划募集至少 3 亿美元。

仅一周时间,市场热情就被点燃,阿里腾讯均被传出入局竞投的消息。虽然截至目前,以上公司均未公开确认或回应上述投资意向及具体数据。

但据《财经》,有接近交易人士称,投资方为腾讯与阿里巴巴,两家投资方预计共计投资 18 亿美元,本轮融资估值约 200 亿美元。

如果按照这一估值来看,DeepSeek 首轮融资便将超过今年 3 月被披露新一轮融资估值约 180 亿美元的月之暗面。

现如今,DeepSeek-V4 预览版虽比原计划晚到了 2 个月,但却显得恰逢其时。

在这个融资节点,先推出预览版,无不在预热 DeepSeek 的 " 王者归来 "。

正如 DeepSeek 官宣内容的那句," 不诱于誉,不恐于诽,率道而行,端然正己。"

出自荀子《非十二子》,意思是:不被赞誉诱惑,不被诽谤吓到,按自己认定的道往前走,端正自己。

这说的,何尝不是 DeepSeek 呢?

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 开源 华为 寒武纪 b站
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论