我有一台可以用 Apple Intelligence 的 iPhone 16pro,懂苹果的人都知道这里面的门道有多深。
于是在 10 月 24 日苹果推送 iOS 18.2 的首个开发者测试版后,我第一时间下载体验了这个最接近正式系统的版本。
这也是苹果首次推送有 ChatGPT 的 Apple Intelligence。
当一切就绪,我体验了这次推送里的几个核心功能,也是苹果此前发布 Apple Intelligence 时重点画饼的功能:
1 更聪明的 Siri;
2 笔记应用里的 ChatGPT 辅助写作;
3 " 相机按钮 " 长按唤起的 Visual Intelligence;和
4 我最终并没有体验的 AI 画图功能
1 " 更聪明的 Siri"
在 Apple Intelligence 里,Siri 可以只通过叫它 "Siri" 唤起,而唤起时整个屏幕会有一个动画效果,像是被一道彩虹波纹划过,屏幕也会跟着微微颤抖几下。
(视频 1)
当你用语音唤醒,波浪从底部荡起。
(视频 2)
当你用开关键唤醒,波浪从右侧荡漾开来。
你基本可以在任何界面随时唤起 Siri。
这是个初看很高级的效果,不过也已经在此前的一些 iPhone 之间的触碰交互上出现过。
我试了试用语音让 Siri 打开一些 app,完成截屏," 帮我写一个笔记,内容是 xxx",它都可以快速响应。已经有了调用和直接操作 app,尤其是自带的 app 的能力。
而且,你现在可以跟 Siri 对话时说的更自然,比如我在询问天气时,说错了地名然后改正,它也可以理解。
但目前跨 app 的能力依然有限。
我尝试让它把正在播放的音乐分享给朋友,它回答:我做不到,我只能分享截屏,然后自顾自截取了屏幕,问我,分享给谁。
(视频 3)
这就让现阶段更能够体现 Siri 更聪明的那些地方,都来自它首次可以调用的 ChatGPT。
你不需要有 ChatGPT 的账号,就可以在 Siri 里使用它。当然,你也可以登陆你的账号,来留存记录。没有账号似乎更符合苹果的宣传:在隐私层面更加安全。
ChatGPT 提供的基本上是一个低配版 GPT-4o 的功能,你可以语音问它,然后它会回答。比如需要提供菜谱,提供旅游计划等。(这几个是我看一些开发者体验时用的例子,我也试了试,试的过程我一直在想,我为什么不打开 ChatGPT 去里面完成这些任务呢?)
而且,当你只是召唤 Siri 时,Siri 也会主动问你是否要请 ChatGPT 帮忙。或者你也可以直接说:Siri,ask ChatGPT。
对,走到库克家门口敲门让库克出来然后告诉他,请帮我去找 Sam Altman 的即视感。
当我让 Siri 完成一个任务:识别我屏幕上的内容然后告诉我更多的信息时,它问我,可以把截图发给 ChatGPT 么。然后它发送了截图给 ChatGPT。ChatGPT 完成了回答。
但这类任务的稳定性有些奇怪,有几次 ChatGPT 又说它无权处理截图。
而在我让它完成另一个任务时——识别我在听的歌,然后告诉我更多关于这首歌的信息,基本证明了,苹果没有给 ChatGPT 直接接触系统的权限,所以链条变成 Siri 听,识别,然后问我:可以发给 ChatGPT 帮忙么,然后 ChatGPT 出现。
我还试图完成一个任务,通过语音让 Siri 把默认搜索改成 Google。这其实是一个典型场景——用自然语言来完成手机的设置。但 Siri 先是问我是否可以请出 ChatGPT 帮忙,然后请出 ChatGPT,给了我一个如何改设置的网络搜索答案。
这种让人无语的操作背后,苹果的纠结更加明显了——它似乎默认了 ChatGPT 是更聪明的那一个,遇到稍微复杂的难题就要找它,但同时,它又处处防着 ChatGPT,不给它在自己地盘上完全施展的空间。
于是,ChatGPT 显得很智能,而苹果在里面参与的一切,都显得让人有些失望。
而且,这种纠结会持续下去,此前苹果强调的隐私,与 ChatGPT 强调的用户数据都要拿来训练模型之间的冲突如何解决,看起来也会是个更大的问题。
2 笔记应用里的 ChatGPT 辅助写作
笔记里的 AI 写作功能基本都由 ChatGPT 提供。
在下端的工具栏,有一个专门的按钮。
点击后出现一个新的 AI 操作界面。说实话,也不太好看,因为和整个 app 完全是不同的风格了,给人感觉是一个外来的强加的角色被唤醒了。
(视频 4)
然后它的功能也很基础,像所有 AI 写作都有的那些:改写,修正检查,输入你的 Prompt 等。除此之外,它还有总结、整理要点等模版功能,点击后出现的结果不会在输入区域,而是在这个操作板下方。
所以,显得很拥挤。
而且,在 UI 上,AI 写作时的效果,像是一个 3 岁儿童往你的屏幕上贴了个他最爱的 blingbling 的长条贴纸,下一秒出来的仿佛不是 AI 写的字,而是小马宝莉。
(视频 5)
我第一次在苹果的实际产品体验上,找到了它那些自我感觉良好的中文翻译给我的诡异感。
3 长按 " 相机按钮 " 唤起的 Visual Intelligence
iPhone 16 pro 系列多出来的那个相机控制按键,在发货后被很多很多人诟病。几乎所有使用过的人都会感慨为了提高拍照体验真的需要一个这东西么。
但看起来就像很多网友替苹果争辩的那样,苹果这个按键不是为了拍照,而是一个 AI 功能的启动按键。
这个设计在理论上确实很重要。
" 按键 " 在 AI 硬件时代重新显现出来它的意义——它可以减少用户操作步骤,这和大模型带来的交互潜力一致,苹果的思路似乎是:一个 "Siri",一个增加的实体按键,前者对应语音交互,后者对应视觉。这两个是大模型的最重要交互方式,各自必须在手机的机身上就有一个一键触发的入口,避免任何划动屏幕等多余的动作。就一步,这俩 AI 功能就要立刻开始服务用户。
这里面最关键的是,用户对这俩功能的使用要足够高频,功能本身也要足够强大。
当你长按相机按钮后,就可以进入 Visual Intelligence 的模式(我甚至怀疑,当人们都放弃用这个键拍照后,它会变成 Visual Intelligence 的专属键,然后单击、双击、触控划动等都会服务于对应的视觉 AI 功能)。
在同样的彩虹波浪动效之后,屏幕出现一个拍照按钮和两侧的两个选项:问 ChatGPT,和用 Google 搜。
这几乎完美展示了苹果在 AI 上的处境——自己地盘上的重要任务,却都交给了别人。
当你点了 Ask 后,ChatGPT 会不管你到底要 ask 什么,直接给你一个它看到的此刻的图片的看图说话。
接下来是 ChatGPT 大显神威的时刻。
我拍了一张照,并让 ChatGPT 基于照片写一篇小作文。它快速做到了。
(视频 6)
这一下子多了很多想象空间。视觉识别后,基于这些信息进行接下来的任务。
而苹果自身则依然有些拉垮,它的跨 app 能力还是没有发挥作用。我让它复制这篇小作文到笔记应用,它却开始搜索互联网。云端和端侧模型能力的差距看出来了。
还有一个问题是,我也不知道支持 Apple Intelligence 但没有相机控制按钮的 iPhone 15 们,要怎么启用 visual intelligence。苹果会再单独做个 app,还是或者就直接不支持了。总之,阉割的种类又多了。
4 我没体验 AI 画图功能,因为第一眼就觉得它太不苹果了
看看这个升级后就会自动出现的猫头 app 的图标,和它的界面。谁会想到它是苹果做的呢。
你可能的确可以用你的苹果做一堆沙威玛传奇那样的图片出来。
但真的想要体验文生图,图生图,甚至图生视频,有比这个 app 更好的选择。
目前 Apple Intelligence 还有一些没有推送的功能,其中在此前发布会里最令人期待的就是通过 Siri 识别 iPhone 屏幕上正在发生的一切事情,然后基于你的指令帮你完成任务。也就是一个超级 Siri agent。
但它会在月底的正式推送中到来么?还是会如苹果说的 " 分阶段 " 在未来推送?
没人知道。
同样没人知道的是,苹果的 AI 团队们是不是把精力都用在了开发这个超级 Siri agent 上,才让前面这几个苹果自己提供的 AI 体验有些拉垮让人失望。
希望是这样的。希望,苹果,大的在后面。不然,这手机迟早有一天要改叫 OpenAiPhone 了。
登录后才可以发布评论哦
打开小程序可以发布评论哦