IT之家 5小时前
教授称因关闭ChatGPT数据授权,两年学术成果瞬间清零
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_font3.html

 

IT 之家 1 月 25 日消息,如果要给房东写一封措辞强硬的邮件,反映天花板漏水的问题,需要找个帮手把关,那么 ChatGPT 或许是个不错的工具。但和所有同类竞品一样,ChatGPT 也存在诸多有据可查的缺陷:它不仅常常生成虚假信息,还自带一种谄媚讨好的语气,极易让用户陷入严重的认知误区。

换句话说,它绝非人们处理重要工作时可以依赖的工具,科隆大学植物科学教授马塞尔・布赫就吃了大亏,才明白了这个道理。

IT 之家注意到,布赫在《自然》杂志的一篇专栏中坦言,自从关闭了 ChatGPT 的 " 数据授权 " 功能后,他两年来精心整理的学术成果,包括科研经费申请材料、论文修订稿、课程讲义和考试题目,全都 " 不翼而飞 " 了。

他当初关闭这项功能,是想验证 " 即便不向 OpenAI 提供个人数据,自己是否仍能使用该模型的全部功能 "。可令他崩溃的是,所有聊天记录瞬间消失得无影无踪。

" 没有任何预警提示," 布赫写道," 也没有撤销选项,只留下一片空白的页面。"

这篇专栏发布后,有网友质疑,布赫怎么能两年来都不做本地备份?也有人怒不可遏,呼吁校方解雇他,理由是他在学术工作中过度依赖人工智能。

不过,也有一些人对他表示同情。海德堡大学教学协调员罗兰・格罗姆斯在社交平台上发文称:" 尽管马塞尔・布赫的工作流程漏洞百出,还犯了个愚蠢的错误,但他敢于公开这段经历,值得肯定。很多科研人员都觉得自己能识破所有陷阱,可事实上,每个人都可能因一时疏忽,遭遇这样的麻烦。"

布赫也率先承认,ChatGPT 生成的内容 " 看似言之凿凿,实则有时漏洞百出 "。他强调自己从未 " 将模型的可靠性等同于内容的真实性 ",但他 " 信赖平台工作区的连续性和表面稳定性 ",每天都把 ChatGPT Plus 当作贴身助手使用。

生成式人工智能在科学界的应用,一直争议不断。据《大西洋月刊》报道,大量来源不明、由 AI 拼凑的劣质稿件正涌入各大科学期刊,让同行评审沦为一场 " 灾难 "。更有甚者,一些专门发表 AI 垃圾稿件的虚假学术期刊应运而生,借机牟利。最终的结果就是:AI 生成的劣质内容,交由 AI 模型进行同行评审,这进一步加剧了对学术文献的污染。

与此同时,科研人员经常收到通知,被告知自己的研究成果在新论文中被引用,但点进去后却发现,相关引用内容纯属 AI 虚构。

需要明确的是,目前没有任何证据表明,布赫曾试图将 AI 生成的劣质内容塞给学生,或是发表不实的 AI 撰写研究成果。

尽管如此,他的这段惨痛经历,仍为所有人敲响了警钟。

布赫在专栏中指责 OpenAI:在未能提供 " 基础保护措施 " 以防止用户数年心血毁于一旦的情况下,就贸然推出 ChatGPT Plus 付费订阅服务。

OpenAI 在给《自然》杂志的一份声明中回应称,聊天记录一旦删除便 " 无法恢复 ",并反驳了布赫 " 未收到任何提示 " 的说法,强调 " 用户在永久删除聊天记录前,系统会弹出确认窗口 "。该公司还 " 贴心 " 建议:" 用户在处理专业工作时,应做好个人数据备份。"

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai it之家 人工智能
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论