混沌大学 7小时前
当AI能推演人的主观世界,商业决策彻底变了!
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_keji1.html

 

我们正站在一个前所未有的节点上:绝大多数商业问题,已经不再是 " 做对或做错 ",而是无数可能性的叠加;而绝大多数企业,还在用上一个时代的思维,赌下一个时代的不确定。

内容怎么做?用户到底要什么?产品会不会卖?过去靠数据、靠经验、靠拍脑袋;现在,一个全新的能力正在出现——AI 不止能干活,它开始 " 模拟人 "。这听起来非常有趣,你肯定想知道:

AI 模拟用户,这事儿到底靠谱吗?

它如何成为解决复杂问题的新工具?

它怎样让 " 用户洞察 " 这件事快 100 倍、便宜 100 倍、覆盖广 100 倍?

以及,在 AI 能预测 85% 的世界里,人类该如何活在那 15% 的不可预测里?

本文仅为课程的部分内容,完整版内容请到混沌 APP 观看完整版。

现在,绝大多数的智能体都在帮我们干活(做销售、做客服等)。而我想讲一个正在越来越明显,但是还处在比较早期的智能体形态:帮助我们更好地去了解人的智能体,英文叫 Generative Agent Simulation,就是用来 " 模拟 " 的智能体。

我们经常会听到这样的问题:做什么内容好?这群人需要做什么内容?这群新兴的群体可能感兴趣要什么样的东西?这些话题其实本身不存在对与错的答案,更多的是各种各样的可能性。绝大多数我们遇见的问题都是这种可能性问题,这不是简单的数学题解方程的问题。

在学术里边,把这种问题称之为叫 Wicked Problem。学者把问题定义为两种:第一种叫 Tame Problem(可解问题),即那些可以被求解、被定义的,有确切答案的问题,即使是再复杂的方程,也是有确切答案的。还有一种就是我们在商业里面经常会遇见的,不好被定义,也无法被解决,只能暂时被改善,这种叫 Wicked Problem,也叫复杂问题。

复杂问题有一些特征。首先,它很难被明确定义,总好像是一个复合的东西。第二,它永远带来新的问题,所以没有结束。第三,只有好坏而没有真伪。

同时,没有立即获得最终的可以测试的标准,你很难测试。每个问题都是独特的问题,可以被看作其他问题的症状,比如解决贫困,很有可能就会产生环境问题和贫富差异问题。问题的存在取决于价值观的差异,我们到底以什么为优先。决策者没有办法试错,你一旦选了,你就只能一条道走到黑,没有办法再回来。

这些都是 Wicked Problem 的特征,我们在很多商业的选择里面就是这样,我们只能往前走。

解决这种问题的最通用的一种方式叫模拟。模拟的意思就是:我们建立一个沙盘,我们去做推演,做 Scenario Planning,做不同场景的尝试,来看看我们下一步应该怎么做。

我们其实一直都在模拟。比如打一场仗之前、操作复杂工具之前(不是学习工具,而是模拟不同场景下的反应)、以及升息降息、涨工资降工资等经济变化时,我们都会去模拟。

模拟的核心有一种转变:要从想把问题解决到变成一个更演化、更适应的系统。我们不再只是期待把问题的答案找到,而是要跟着这个问题去往前走。系统模拟的目的就是不停地跟着问题往前走,从而产生一种更有机、动态的状态。

模拟里边有一个非常核心的步骤,就是建模。我们的大语言模型就是一种建模,是对主观世界大环境的一种压缩。

建模其实就是控制变量法,我们把一些变量暂时搁置,试图用一种抽象的方式来描述环境和客观现实。人类科学的发展就是让更多话题可以用建模的方式来解决,从十五、十六世纪的物理世界,到十八、十九世纪的生物、化学世界,再到 20 世纪用计算方法来理解社会(如复杂理论、行为经济学等等)。

我觉得在当下,我们有机会用语言去模拟这个主观的世界,因为大语言模型可以不停地讲话,而语言是我们思维的载体。我们可以模拟内心是怎么想、怎么选择、怎么判断、怎么构思的,从而更好地帮我们理解用户、理解同事。

也就是,有大语言模型以后,我们有机会用建模的方式来理解一个人的主观世界。所以我们把这称之为主观世界的建模方法。

举一个简单的例子。如果我用大语言模型去阅读《哈利 · 波特》,把这本书作为语料喂给模型,我们就能产生一个哈利 · 波特人格的 AI 模拟。我就可以问他作为一个消费者,早上是喜欢喝咖啡还是果汁。通过这样的方式来获得所谓用户洞察的东西。

这个答案在书里没有,但通过这本书作为数据源和上下文喂给大语言模型,模型分析后就可以通过书的信息来模拟出哈利 · 波特的性格选择。这个过程就叫推理。推理就是基于上下文去做有效的下一步的猜测。因为大语言模型的运行原理其实就是不停地预测下一个词。

让大语言模型模拟一个人的消费习惯和选择,去猜测下一步他可能会做什么,这恰恰就是大语言模型最擅长做的事情。

理论上,当我们可以让 AI 去模拟哈利 · 波特,明天也可以让 AI 去模拟每一个人。

我们做的事情,就相当于用这个方法做了一个产品 Atypica。

我们通过合成数百万真实的社交帖子来生成消费者智能体,模拟消费者真实的个性、情感和决策逻辑,让你不仅理解消费者 " 想什么 ",还能理解他们 " 如何 " 和 " 为何 " 做决定。拥有 Atypica,就像拥有一个强大的研究团队。

你可以分钟级获得研究报告,只需要提出你的商业问题,我们的研究智能体(Research Agents)会阐明你的需求,规划调查,扫描社交平台。将社交声音合成为消费者智能体,发现深入的行为、价值和偏好洞察。

最后,分析智能体(Analytic Agents)将一切精炼为清晰、可操作的市场洞察和报告。

这个产品就叫 atypica.AI,它做的事情就是用大量的模拟消费者 AI,和 AI 研究人员进行大量的对话,从而产生各种各样的商业问题的答案。

比如问某个产品在南美会不会卖得很好,它可以自动拟合出南美的消费者来做测试。我们也见到做新能源车的公司,邀请一堆虚拟用户来探讨下一代 MPV 的产品概念等等。最后产生的阶段性结果是一份非常详实的报告和整个调研的过程。

这个产品或者说这一套体系主要分为三个部分:第一个部分是用 AI 来模拟消费者;第二个部分是用 AI 来模拟进行各种各样的人与人的互动访谈;第三就是 AI 输出结果。

大家都会好奇 AI 模拟消费者到底准不准?我们尝试做了两三年,直到今年我觉得这个想法的结果是有效的。之所以今年有这个机会,是因为模型的升级,我给大家举两个现在行业的科研成果。

一群斯坦福的学者在 2023 年做了一个虚拟小镇,25 个居民由 AI 驱动,自发性的进行 " 人与人 " 的互动。后来同一个团队写了一篇论文 《Generative   Agent Simulations of 1,000 People》(《用智能体来模拟 1000 个随机的美国人》)。

他们用智能体采访这些美国人约 100 多个问题(2 小时),积累大量故事作为语料,输入给大语言模型作为模拟智能体的基础。然后用同样的问题问真人和问智能体,最后得到答案是 85% 的回答可以互换,就是接近一致。

这里有一大批的科研,比如说人机交互的、经济学的、社会学的,似乎都在做一件事情,就是让大语言模型加上一个上下文、加上数据,能不能够模拟扮演真人的这种随机性。

最后我们发现,这是可行的。可以通过上下文、提示词、大语言模型本身的能力等等一系列的工程方式,能够让模拟的效果达到 85%。

我们是怎么做的?基本方法就是:用语料加上大语言模型,然后产生这种生成式的人设。Atypica 可以将你的访谈记录转化为随时可用的数字化消费者(Digital Consumers)。你的语料进来以后,我们还要进行多个维度消费者的解析,去做采访或再去找数据,这样才会让这个消费者更真实。

为什么说数据不完全可行?举一个例子。我的合作伙伴经常说:" 我想通过分析社交媒体数据,进行新品研发、竞品对比、销售卖点提取,能不能爬取各个平台的全量数据来分析,小红书、抖音、微博、B 站,越全越好?"

首先,爬数据合规性是问号。第二,爬取的数据可能有延迟。第三,爬来的全量数据,99% 可能是垃圾。数据分析能真的剔除 99% 的垃圾吗?

那为什么大家不去最好的商店买东西,而去垃圾堆里捡东西呢?所以全量数据是一个伪命题。

我们经常总结:因为过去都是这样,所以我们应该这么做。世界不是线性的,归纳是谬误。通过过去预测未来是有谬误的。这些观点来自大卫 · 多伊奇的《无穷的开始》。他认为科学发现不是观察、归纳和总结,也不是看到数据就总结、归因、得出结论。而是问题到猜想,猜想到批判,批判到更好的猜想。

爱因斯坦相对论、达尔文进化论等著名猜想,都不是先有数据验证才想出来的,而是先有猜想,后有人验证,这并非自然归纳。数据归纳法在商业场景中常用,但可能只是 " 黑天鹅事件 " 尚未出现。

AI时代,我们不应依赖大模型、大数据,而应依赖每个人的 " 大猜想 "。因此,访谈(即使是 AI 虚拟人)很重要。洞察和猜想的源泉,在于人和人的交流产生的增量,而非收敛的解题式结论。

市场变化太快,商品迭代以月为计,而传统的社媒全量数据和调研报告时效性、执行度都堪忧,我们不能一边快速迭代,一边用户理解却按年来算。

我们希望通过 Atypica 这样的产品,将用户理解的速度、成本和覆盖面都提高 100 倍。每个研究过程都有一个 Nerdy 统计按钮,有四个维度:时间(后台 10 到 30 分钟实时访谈并产出结果)、步数(交互次数)、Agent(消费者数量)和 Token(剥削的算力)。

40 万个 token 大约是一杯瑞幸咖啡的价格,我们用咖啡来定价,你可以请 AI 喝一杯咖啡,它给你结论。

我们的目的不是取代传统方法,而是解决原来用户理解太贵、太慢、覆盖面太窄的问题,我们提供一个 24 小时在你身边的用户洞察 agent。当你要做内容、商品、战略或决定时,随时有一个可以模拟的对象沙盘来问问反馈,并思考后果。

我们的产品在 AI 出海业务中发挥了真实的作用。详情请看完整版课程:

第一个 85 分是我们的产品结论客户满意度打分是 85 分(100 分满分),可能找麦肯锡做的结果也不一定有 85 分。当 AI 可以做 85 分的时候,我们的工作会发生什么样的变化?

AI 既然能做到 85 分,我们就让 AI 做到 85 分,那么人做的工作是从 85 分往上做到 100 分。

我们的产品现在 100 分的产品才有机会拿出来,85 分就是底线。我们应该用好这个基础,让活去找人,不是人去找活。

第二个 85 是指模拟用户的一致性是 85% 的概率是准的。那么另外无法被预测的 15% 是什么?

想象你是一个复杂立体的人,AI 只看到你发的朋友圈、点赞的视频、写的邮件、搜过的问题,把你压缩成一个概率模型。这就是 AI 最底层的逻辑:压缩,越容易压缩就越容易被取代、被预测,越容易被预测,在 AI 时代就越容易被取代。

当你越来越正常,越来越像那 85% 的时候,你就越容易消失,AI agent 就可以取代你。

我们曾担心被误解,现在要担心的是被彻底理解,以至于再也没有惊喜,你的存在 AI 学不来,总结不出来,你写的句子它不敢预测,做的决定它没见过。

在 AI 时代,最需要做的就是一个难以被预测的人。

扫码观看完整版课程

宙世代

宙世代

ZAKER旗下Web3.0元宇宙平台

一起剪

一起剪

ZAKER旗下免费视频剪辑工具

相关标签

ai
相关文章
评论
没有更多评论了
取消

登录后才可以发布评论哦

打开小程序可以发布评论哦

12 我来说两句…
打开 ZAKER 参与讨论