作者:Ben Schoon
Meta 宣布为其 Ray-Ban 智能眼镜进行新的软件更新,其中将添加“Live AI”功能,该功能可以使用视频源收集问题的背景信息,类似于 Google 的 Project Astra。
Ray-Ban Meta 智能眼镜 v11 推出新更新,带来了一些新选项。
其中包括 Shazam 集成,它允许用户询问眼镜“嘿 Meta,这首歌是什么”,然后大声朗读结果。此功能将在美国和加拿大推出。
除此之外,Meta 还推出了新的人工智能功能,它们看起来很诱人。这些新功能中的第一个是“Live AI”,它允许 Ray-Ban Meta 眼镜捕捉视频,然后 AI 使用该视频在屏幕上提供“实时、免提帮助”。您正在积极做的事情。
Meta 表示,最终,这些数据将用于在你提出建议之前提供建议。
第一个是 实时人工智能,它将视频添加到眼镜上的 Meta AI。在实时 AI 会话期间,Meta AI 可以连续看到您所看到的内容,并比以往更自然地与您交谈。在准备膳食、园艺或探索新社区等日常活动中获得实时、免提的帮助和灵感。您可以提出问题,而无需说“嘿 Meta”,参考您在会议之前讨论的内容,并随时打断以提出后续问题或更改主题。最终,实时人工智能会在适当的时候,甚至在你提出问题之前就给出有用的建议。
与此同时,“实时翻译”将能够实时翻译语音,对方的语音通过眼镜以英语输出(也可以在手机上转录)。这适用于西班牙语、法语和意大利语。
Meta 只会通过等候名单推出这些功能,目前仅限于美国和加拿大。
谷歌正在研究类似的事情。
在 5 月的 Google I/O 2024 上,该公司展示了“Project Astra”一个新的人工智能项目将能够使用视频源来收集背景信息,然后能够根据所看到的内容回答问题。谷歌嘲笑了眼镜上的功能,但尚未推出任何产品。这本月早些时候,Google 宣布推出 Gemini 2.0,详细介绍了 Astra 的新更新将能够用多种语言进行对话、存储最多 10 分钟的内存、改善延迟等等。目前尚不清楚 Meta 的“Live AI”将如何进行比较,但看到此功能如此之快推出确实令人兴奋,尤其是因为我们看不到它谷歌要到明年某个时候才能完全实现。
关注本:一个 推特/X,一个 线程数,蓝天, 和 Instagram
FTC:我们使用赚取收入的汽车联盟链接。 更多的。