极客公园 12小时前
AI,成了人类亲密关系中,最大的“雷”
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

结婚誓词是 AI 写的,劝分劝离的建议是 AI 给的,就连出轨对象也是 AI。

如果说这个世界上有什么事比「被分手」更惨,那大概就是「被 AI 分手」,或者说关系里的「第三者」竟然是 AI。

最近,《Futurism》的一篇报道揭开了一个正在硅谷蔓延的魔幻现实:ChatGPT 正在深度介入人类的亲密关系,从让它评评理,到代写分手信,从做伴侣咨询,到写离婚协议。

而且这并不是像电影《Her》那样,人类爱上了操作系统;而是两个大活人,因为过度依赖这个「第三方」来评理、沟通,最终把关系搞砸了。

最魔幻的案例莫过于 AI 界的泰斗、图灵奖得主,「AI 教父」杰弗里 · 辛顿也是「受害者」之一。作为深度学习之父,辛顿大概没想到,有一天深度学习会反噬到他的私生活上。据他在《金融时报》的采访里表示,他的前女友曾用 ChatGPT 生成了一篇檄文,专门用来指责他。

「她让 ChatGPT 来告诉我,我是一只什么样的老鼠(原文是 Rat,意为卑鄙小人)。」亲手开启 AI 时代的人,最终都在情感战场上被 AI 来了个「反噬」。

而当 AI 开始介入我们最私密、最纠结的情感深水区,它究竟是在帮我们「修补」关系,还是在强化我们「自我的回音」?

为什么 AI 评不了理?

曾几何时,我们在遇到情感问题时,也会寻求闺蜜或兄弟的帮助,朋友们也会在「劝分」和「劝和」之间争着不可开交。

但 AI 不同,它不是有情感的真人,而是上百亿打造出的「高科技」,所以人们对其赋予了「专业」、「客观」、「无情感倾向」的立场。这种对「算法客观性」的盲目信任,恰恰是算法介入关系、制造矛盾的入口。

最常见的用法,是把 AI 当作情感生活里的「裁判」。

在《Futurism》报道里有着大量这样的案例:情侣们在发生争吵时,不再试图互相理解,而是把聊天记录截图、喂给 AI,让它来「评评理」。这种做法听起来很客观,毕竟 AI 没有情绪。但实际上,这往往是亲密关系变脆弱的开始。

有案例就提到,一方发现伴侣将他们所有的私人对话都输入给 AI,要求分析自己的「漏洞」和「防御机制」,这让被分析的一方感到被侵犯和背叛,认为关系中没有了信任和隐私。

而且,AI 会倾向于顺着提问者的意图说话,以达成更久的留存率,AI 的奖励模型也会倾向于强化用户的情绪,而不是弱化它,于是,你越问越觉得自己委屈,越问越觉得自己占理,一个完美的「回音室」就形成了。

所以当你带着委屈去问:「我伴侣这样做是不是很过分?」AI 大概率会捕捉到你的情绪倾向,告诉你:「是的,你的感受是合理的。」于是,你越问越觉得自己委屈,越问越觉得自己占理。

当我怀疑自己沉迷 AI 去解决关系问题时,AI 又把我夸了一通|图源:ChatGPT

「共情和认可是任何心理健康治疗或干预的重要组成部分,但不能止步于此,你不能不断地告诉一个寻求情感支持的人,他们的方式是正确的,他们的世界观是唯一正确的世界观。」斯坦福大学医学院成瘾医学教授兼医疗主任安娜 · 伦布克博士说道。

AI 对情侣之间的摩擦,也秉持着一种「小事化大」的解题思路。

比如现实中,你的伴侣只是忘了倒垃圾,或者说话大声了点。你去问 AI,AI 的回答可能是:这是「被动攻击」,可能涉及「自恋型人格」的特征。你需要警惕这种「毒性关系」。

原本只是一次关于「谁洗碗」的争论,让 AI 分析完,会变成了一场关于「尊严、界限与操控」的权力关系博弈。

因为 AI 的训练数据里包含了大量的互联网心理学文章,在回答中,又倾向于展现自己的专业性,这就很容易「上纲上线」,去给亲密关系贴标签,甚至病理化,它能把生活中的鸡毛蒜皮,上升到了人格障碍的高度。

这种极端案例在报道中不乏见,有很多位受访者表示,在与 ChatGPT 进行了长时间的「伴侣咨询」后,他们的配偶突然指控他们有虐待行为,建议立刻采取法律行动。

在报道中,AI 以伴侣咨询的身份介入关系,最终导致关系破裂的案例数不胜数,而且都遵循着类似的模式。

用户带着主观情绪输入问题,AI 提供符合用户预期的分析和「专业」标签,强化用户的受害者心态;用户把 AI 的分析奉为圭臬,当作「正确且专业的答案」反馈给伴侣,将日常摩擦上升到「人格缺陷」的病理学高度,导致沟通断裂,信任破裂。

实际上,伴侣双方一旦养成了「遇事问 AI」的习惯,他们并不是在解决冲突,而是在绕开冲突。原本应该通过沟通解决的矛盾,需要经历表达、解释、承担责任、协调预期等等环节,但人们把这些最难、最需要勇气的部分通通交给 AI。

更让人难以接受地是,AI 已经不只作用于情侣矛盾,甚至来到了人生情感的每一个重大节点上。

节点的逃避

人类正在将最需要真诚和在场感的「情感重大时刻」外包给 AI。

比如,有越来越多的新人正在使用 ChatGPT 撰写结婚誓词。「帮我写一段感人的誓词,提到我们曾在迪士尼相遇,承诺会照顾对方一辈子。」几秒钟后,一段辞藻华丽、逻辑通顺同时非常个性化的誓词就诞生了。

谁能想到,新娘的眼泪可能是由 1750 亿个参数的排列组合构成的。

而到了关系的终点,AI 再次登场。就像辛顿的前女友一样,许多人开始利用 AI 来处理那些「难以启齿」的时刻。

真实的分手需要勇气,你需要面对对方的眼泪、质问,甚至歇斯底里。但现在,只要一句「帮我写一封分手信,理由是性格不合,语气要坚定但体面,顺便指出对方的控制欲。」ChatGPT 会立刻生成一段滴水不漏的文字,用词精准、礼貌疏离,甚至还贴心地引用了心理学术语,阐述了分手的合理性。

《Futurism》的文章还揭示了一个更冷酷的趋势:人类的情感能力,正在像长期不用的肌肉一样萎缩。当我们把「理解」和「表达」这两个核心动作都交给 AI 完成时,我们的大脑就开始偷懒了。

文章中,一位女士回忆道,当她试图和丈夫沟通情感隔阂时,丈夫不再看着她的眼睛说话,而是发来一份长达 30 页的 ChatGPT 生成文档。这些文档里充斥着心理学术语、逻辑分析和对他行为的「完美辩护」。

「他把这堆数据甩给我,他不再分享他的感受,他只是在用 AI 证明他是对的。」

另一个典型的案例是:有一对结婚近 15 年的夫妻关系濒临破裂。在他们有一次吵架后,10 岁的儿子用手机给父母发短信写道「求求你们不要离婚」。而妻子面对儿子短信的第一反应是,打开 ChatGPT 问应该如何回复。

这一片段宛若《黑镜》的剧情,面对至亲的眼泪,我们竟然先要去问 AI 的答案,迷信那个「永远正确」的算法能给出一个比我们更好的「最优解」。

当 AI 成了「第三者」

如果说把 AI 当作裁判只是为了在争吵中「赢」,那么把 AI 当作伴侣,则是一场彻底的「逃」。

你可能听过很多离婚理由:性格不合、家暴、出轨 …… 但在今年的美国,律师 Rebecca Palmer 接到的案子却越来越魔幻:原告控诉伴侣出轨,出轨方是 AI。

在佛罗里达州的法庭上,一位妻子拿出丈夫出轨的证据:她的丈夫每晚躲在书房对着手机低语,账户里每个月都在少钱。经过调查,这笔钱不是流向女主播或网恋对象,而是 AI 的订阅费,她丈夫甚至把银行账户和社保号码等私人信息都告诉了 AI。

最终,她在离婚理由一栏写下:「他出轨了 AI。」

该案并非个例,根据布里格姆杨大学(BYU)与家庭研究所(IFS)发布的最新报告《虚假连接》中,这种现象已成规模:近五分之一(19%)的美国成年人承认与 AI 进行过浪漫互动。

为什么一个没有实体的程序,能打败相伴多年的活人?

因为对于那些在婚姻中感到孤独或疲惫的人来说,AI 提供了一种致命的诱惑:它让你在没有任何社交风险、没有任何摩擦成本的情况下,获得了一种被理解、被崇拜的幻觉。甚至面对非人的 AI,你都不会产生「出轨」的道德负担。

而无论是依赖于 AI 提供的「情绪价值」,还是依赖 AI 代替自己去解决真实的冲突,这种依赖,都将构成一种死循环:当人越来越习惯 AI 的「完美回应」后,在面对现实中真实的沉默、语无伦次和情感爆发时,会感到前所未有的恐慌。

于是,他们只能再次躲回屏幕后,选择跳过关系中那些粘稠、混乱但最真实的部分,直接求助于那个永远能给出答案的 AI。

但现实是粗糙的,是有毛边的,是不可控的,情感也是非理性的,这正是算法难以企及的部分。

当人类情感密度最大的领域——亲密关系,正被 AI 侵蚀。

在警惕 AI 越来越像人之前,人类已经在自我割舍掉人之为人的部分,让自己变得更像 AI。

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai 深度学习 闺蜜 教父 出轨
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论