经过多年的传闻,苹果可能终于要推出自家的智能眼镜产品了。
根据最新爆料,"Apple Glasses" 预计将在明年正式发布。虽然智能眼镜的概念并不新鲜,但苹果入场肯定还是会给这个市场带来点不一样的东西。从初代 Google Glass 的失败到 Meta Ray-Ban 的成功,智能眼镜市场经历了漫长的发展历程,但直到现在依然不温不火。

Google Glass
智能眼镜的曲折发展历程
智能眼镜的概念其实已经存在了十多年,但直到最近几年才真正开始走向成熟。
2013 年,Google Glass 的推出曾引发巨大轰动,但最终因为价格昂贵、功能有限、隐私等问题而未能获得市场认可。这款产品虽然技术上具有开创性,但在用户体验和实际应用方面存在诸多不足,最终以失败告终。

但随着技术的不断进步,特别是 AI 和 AR/VR 技术的发展,智能眼镜市场开始迎来新的机遇。Meta 推出的 Ray-Ban 智能眼镜取得了初步成功,证明了消费者对这种融合时尚与科技的产品确实有需求。
Meta 的智能眼镜功能相对简单,但成功地将智能功能融入日常佩戴的眼镜中。

苹果自然也不会错过这个机会。
消息称苹果一直在悄悄研发自己的智能眼镜产品,从早期的概念设计到现在经历了多次调整和优化。Vision Pro 的推出主要是面向高端市场,但它为苹果积累了宝贵的空间计算经验,为后续的智能眼镜产品铺平了道路。
苹果眼镜的定位
爆料称,Apple Glasses 不会配备显示屏,也不支持增强现实功能。
可能在苹果看来,直接在眼前显示信息可能会分散用户的注意力,影响日常生活的自然体验。相反,通过其他方式实现智能功能,可以让技术更好地融入生活,而不是成为干扰。
此外,不配备显示屏也意味着眼镜可以做得更加轻便、时尚,更容易被大众接受。要让智能眼镜真正普及,必须首先解决佩戴舒适度和美观度的问题。就像 Apple Watch 最初推出时一样,苹果眼镜也将定位为时尚配饰,而不是笨重的科技产品。

核心功能爆料
苹果眼镜将搭载全新的芯片,据传是基于 Apple Watch 的 S 系列芯片发展而来,但会更加注重能效,能够有效管理眼镜的多个摄像头系统。
眼镜将配备多个摄像头,不仅能够拍摄照片和视频,更重要的是这些摄像头将成为视觉智能功能的基础。通过识别用户所看到的内容,苹果可以提供更加智能的交互体验,类似于当前 iPhone 上的视觉智能功能。

举个例子,当用户看着某个物体时,眼镜可以自动识别并提供相关信息;当用户与他人交流时,可以实时翻译语言;以及可以提供导航和位置信息。
这种视觉智能功能将深度集成于 Apple Intelligence,此外苹果正在重新架构 Siri,使其更加智能和自然,试图类似于 ChatGPT 等先进 AI 助手。
语音控制与交互
Siri 将成为眼镜的主要交互方式,用户可以通过语音指令控制各种功能。
苹果正在开发的新 Siri 将基于大型语言模型,能够理解更复杂的指令和上下文。且由于摄像头与 Siri 的深度集成,眼镜能够提供更加智能的视觉辅助功能。

与 iPhone 协同
苹果眼镜将主要与 iPhone 配对使用,通过 iPhone 的处理能力和网络连接,实现更复杂的功能。这种设计既保证了用户体验的流畅性,又避免了眼镜本身过于复杂和笨重。
例如,眼镜可以访问 iPhone 上的联系人、日历、提醒事项等,实现无缝的信息同步;可以通过 iPhone 的网络连接访问互联网,获取实时信息;可以利用 iPhone 的强大处理能力运行更加复杂的 AI 算法,提供更加智能的服务。

不过,那么问题就来了:如果你的 iPhone 没电了,AI 眼镜是不是就变成普通眼镜了?
- 每日一句 -
没有不后悔的选择,只有不后悔的活法,与其纠结当初的对错,不如把当下的路走得坚定,让每一次选择都生出意义。


登录后才可以发布评论哦
打开小程序可以发布评论哦