苹果公司近日宣布了一项重大技术突破,计划将Apple Intelligence人工智能套件集成至其旗舰产品Vision Pro头戴设备中。这一举措标志着苹果在混合现实领域迈出了重要一步,预计将重新定义人机交互体验。根据彭博社资深记者马克·古尔曼的独家报道,这项集成计划最早将于今年四月通过visionOS 2.4软件更新实现,并将于本周向开发者开放测试版本。
Apple Intelligence最初于2024年6月发布,作为苹果在人工智能领域的重要布局,它包含了多项创新功能。古尔曼透露,苹果正在积极探索如何将这些AI工具重新设计,以适应Vision Pro独特的混合现实环境。这不仅是技术上的挑战,更是对用户体验的一次重大革新。

据可靠消息,visionOS 2.4更新将包含Apple Intelligence的核心功能,包括先进的写作工具、创新的Genmoji表情生成器以及Image Playground图像处理平台。这些功能将充分利用Vision Pro的空间计算能力,为用户带来前所未有的交互体验。苹果计划在本周向开发者提供测试版本,以便他们能够提前体验并为应用开发做好准备。
值得注意的是,此次更新将不会包含升级版Siri语音助手。据悉,由于技术工程问题和系统漏洞,新版Siri的发布将推迟到后续版本。这一决定体现了苹果对产品质量的严格把控,也暗示着未来Vision Pro将迎来更强大的AI语音交互功能。
苹果的这一战略部署,不仅展示了其在人工智能领域的深厚积累,更彰显了其对混合现实市场的雄心。随着Apple Intelligence的加入,Vision Pro有望成为最具创新性的智能设备之一,为用户带来更加智能、沉浸式的体验。