科创板日报 昨天
K时评:以讹传讹 DeepSeek向王一博道歉或为“乌龙事件”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_yule1.html

 

《科创板日报》7 月 4 日讯(记者 张洋洋)今日,一则 "DeepSeek 就不实信息向王一博道歉 " 的声明在社交媒体上流传,头部 AI 平台与顶流男明星的 " 纠葛 ",很快就引来广泛关注。

《科创板日报》记者查阅 DeepSeek 的全部官方渠道(微信公众号、小红书、X)后发现,该 " 道歉声明 " 并不存在。相关言论实际是王一博的粉丝用 DeepSeek 生成了几份所谓的 "DeepSeek 官方道歉与整改声明 ",而后经二次传播,引发舆情,本质是一次 " 乌龙事件 "。

截至发稿,DeepSeek 公司未对此事作出正面回应。

尽管并无真实声明发布,但该事件迅速发酵,成为 AI 幻觉风险对舆论误导的又一典型案例。实际上,这类 "AI 生成 + 名人 + 社会热点 " 的复合型事件,已成为生成式 AI 技术落地应用过程中的高风险问题。

在接受《科创板日报》记者采访时,绘话智能 CEO 贾学锋表示,当前 AI 技术仍存在系统性缺陷:

一是大模型幻觉仍是系统性问题,当前大模型靠 " 语言统计规律 " 生成内容,所以它可能会把无关的人物 " 凑在一起 ",说得 " 头头是道 ";

二是缺乏足够的风险控制机制,特别是在生成涉及公众人物内容时,没有设置足够的 " 事实核验 " 和 " 风险词屏蔽 ";

三是缺少对内容使用场景的风险预判能力,不是所有 " 胡说八道 " 都无害,一旦和热点人物挂钩,就有巨大负面影响。

" 公众普遍误以为 AI 在查事实,但其实它只是在造句子。" 贾学锋表示,用户倾向于相信使用自然语言、貌似中立、贴合情绪预期的内容,而大模型正好击中了这三点。加之 AI 常使用 " 郑重声明 "、" 深表歉意 " 等官方化措辞,并夹杂真实机构、人名和日期等信息碎片,极易造成 " 身份误导 ",让用户将虚构内容误认为权威发声。

DeepSeek 声明事件是典型案例。多条平台热帖中出现的 " 声明 " 措辞高度符合公众对 " 企业回应 " 的心理预期,再加上近期多起涉 AI 与公众人物争议事件堆叠,最终加速了虚假内容的广泛传播。

贾学锋坦言,在技术层面,目前仍难以彻底解决 AI 幻觉问题,这本质上是生成式 AI 的底层机制所决定的。而用户转发这些内容时,常常不带上下文和免责声明,企业难以控制内容二次传播。

贾学锋表示,对于如何降低 AI 幻觉,行业正朝两个方向推进,一是检索增强生成(RAG),通过将模型生成和外部知识库检索结合,避免模型 " 想当然 " 地造句,而是引用真实资料;二是事实一致性对齐技术,自动检测 AI 生成内容是否与已知事实发生矛盾,并予以干预。

此外,在模型训练阶段引入 " 不能胡说八道 " 的风险规则,也是一种有效的前置管控方式。贾学锋判断,未来这一方向有望产生新的底层算法突破。

"AI 技术的社会影响力已远超其早期设计时的预期,我们不能再用实验室的方式去看待它。" 贾学锋强调,这需要技术、产品设计、用户、监管等多方面进行升级治理。同时,也要注意在内容安全和用户体验之间做权衡,一刀切会牺牲 AI 的创造力和商业价值。

本次 DeepSeek" 道歉 " 事件,也为整个 AI 行业敲响了警钟。随着生成式 AI 逐步融入传播、舆论乃至决策链条,企业与监管的治理能力亟需与技术发展速度匹配。否则,下一个被误导的,可能不仅是公众,也可能是整个市场。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 王一博 科创板 规律 小红书
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论