虎嗅APP 18小时前
DeepSeek对“王一博案”道歉?假新闻!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

出品|虎嗅科技组

作者|宋思杭

编辑|苗正卿

头图|视觉中国

近日,一则消息在网络上引发热议。有媒体称,"DeepSeek 就 AI 模型违规关联王一博与‘李爱庆腐败案’,作出道歉。" 该媒体还表示,"DeepSeek 方面表示,因内容审核疏漏,平台在回答用户查询时,引用未经证实的网络谣言,将王一博案与首创集团原董事长李爱庆案件进行不当关联,对其名誉造成侵害,DeepSeek 已永久撤回相关失实信息,并援引北京市第三中级人民法院(2025)京 03 刑终 174 号刑事判决书明确。"

然而,经虎嗅多方核查发现,DeepSeek 官方微信公众号、官方网站、官方 X 账号(前 Twitter)等所有官方社交媒体平台,均未公开发表过任何道歉声明。虎嗅进一步检索所有有关 "DeepSeek 就违规关联王一博与李爱庆腐败案道歉 " 的新闻报道,发现没有任何一则新闻明确指出 DeepSeek 的道歉渠道,也未出现相关道歉声明的截图。

事情的戏剧性不止于此。该事件的诡异之处在于,全网几乎都认定 DeepSeek 进行了道歉。大量自媒体、网络新媒体乃至传统媒体,都在第一时间跟进报道了这条不实消息。 

不仅如此,虎嗅向市面上的所有 AI 大模型询问该事件,得到的回答竟出奇一致:均表示 DeepSeek 的确就 " 违规关联王一博与‘李爱庆腐败案’ " 进行了道歉,并引用了上述不实新闻链接。 

来源:豆包

来源:DeepSeek

来源:KIMI

该事件本属于社会新闻、娱乐新闻等层面,但笔者作为长期跟踪科技类新闻的从业者,站在笔者的角度来看,此事背后折射出的,远不止新闻报道核查不严的问题,更暴露出当下 AI 大模型比 " 幻觉问题 " 更为严峻的困境 —— AI 通过援引假新闻生成新的假新闻。(虎嗅注:人们常说的 AI 大模型幻觉问题,是指 AI 在无事实依据的情况下所生成的不符合事实、甚至不符合逻辑的假消息)

简单来说,随着近两年 AI 大模型的迅猛发展,早期普遍存在的 " 幻觉问题 " 确实有所缓解。这主要得益于 AI 大模型增加了联网搜索和推理等能力,这意味着大模型在生成用户回答时,可以根据网络上的公开信息,通过推理的方式,来生成相应的 AI 回答。

然而,症结在于,当网络上充斥着海量虚假信息时,连人类都难以迅速辨别其真伪,AI 对此则更缺乏有效的信息核查能力。因此,在引用网络信息时,便造成了典型的 "Rubbish in, Rubbish out"(垃圾进,垃圾出)效应。

以笔者个人经验而言,在日常写作工作中,AI 并不能真正替代人类撰稿。甚至有时,当新闻工作者借助 AI 辅助写作时,反而会降低工作效率。因为大部分时间仍需用于查证 AI 生成信息的真伪,即便 AI 援引了某个新闻网页,证明并非 " 幻觉 ",却仍需再次核实该新闻网页所提及内容的真实性。对此,笔者在与多数新闻从业者交流时,大家普遍认为," 用 AI 生成稿件的效率比自己动手写更低。"

回到该事件,对于 AI 带来的警示作用是,AI 应该如何在真假难辨的网络世界里辨别真伪,从而进一步提升 AI 生成准确率。因为只有当 AI 提高了生成回答的准确率,才能真正被投入到实际的生产工作当中。举个例子,这也是为什么,在大部分企业应用大模型时,当中重要的一步是给大模型喂企业专有的知识库,这样在员工向企业定制的大模型提问时,才不会生成错误答案。

当然,对于人类的警示作用,可能就在于,当人类自身都在 " 生成 " 假消息时,AI 就更无法给出准确答案了。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

王一博 ai 虎嗅 首创集团
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论