科技要闻:iOS 14悄悄地向Apple Glasses迈出了一大步


科技要闻:iOS 14悄悄地向Apple Glasses迈出了一大步

文章插图
互联网在提高人们社会活动质量的同时可能对部分互联网使用者造成伤害 。我们要正确认识网络的两面性,用其所长、避其所短 , 发挥网络对生活的积极促进作用 。把网络作为生活的补充就可以享受网络的诸多益处,接下来这篇文章给大家说说互联网科技的正能量 。
【科技要闻:iOS 14悄悄地向Apple Glasses迈出了一大步】苹果在2020年全球开辟者大会(WWDC)上宣布了各种操作系统的大量更新,但没有提及任何新硬件 。但是,已经关注WWDC一段时间的人们会知道,隐藏在软件公告中的小技巧几乎可以揭示设备的下一步进展 。
从表面上看,这完全是关于iOS 14的,苹果转向了ARM和自己的硅芯片等,但在此之下,所有迹象都清晰表明您可能会错过苹果眼镜 。
苹果在谈论iOS 14或iPadOS时几乎没有提到增强现实(AR),但是如果将一些单独的声明放在一起,那么就会浮现更清楚的画面 。例如-AirPods Pro上的空间音频,面向开辟人员的基于位置的AR工具 , 应用程序剪辑 , Apple Vision和3D图标的“手势”检测 。
有了这么多的小提示和线索,您所需要的只是那些智能眼镜,以使它们融合在一起 。
首先,ARKit4 。ARKit是面向AR应用程序开辟人员的一组工具,苹果公司表示,它为全球最大的AR平台-iOS提供动力 。您不会将iOS视为AR平台,因为该技术仍非常非常新生 。但是,ARKit演示之一显示了新的“定位锚” , 该定位锚指向iOS 14和iPadO 14的情况将如何变化 。
这些位置锚使应用程序可以在现实世界中的特定位置放置AR创建物,例如路标,雕像,甚至游戏角色 。这是苹果公司迈出的第一步 , 在所有这些地方,戴着苹果眼镜的人都可以看到这些虚拟的路标和物体 。
除了Pokemon Go这样的游戏外 , 我们还没有真正看到AR在现实世界中迈出一步 。宜家只是在您的客厅里移动虚拟家具 。苹果已经将LiDAR技术用于其新iPad中 。
在iOS 14和iPadOS 14设备上 , ARKit 4可以将来自Apple Maps的地理坐标和高分辨率地图数据放在一起 。ARKit工程师Quinton Petty称之为“可视化本地化” , 这意味着您将能够比仅使用GPS数据更精确地相对于周围环境精确定位设备 。这对于AR体验是故意义的 。苹果还表示 , 其所有基于位置的AR均使用在您的设备上运行的先进的机器学习技术,并且云中没有任何处理 , 苹果也不会向自己或其他任何人发送任何图像 。
除了这些“定位锚”之外,AR主题还有一个微妙的点头,因此 , 智能眼镜是AirPods Pro的空间音频功能 。此更新为您的耳塞带来了3D声音 。除非您带着AirPods观看许多杜比全景声(Dolby Atmos)轻弹,否则为什么耳塞需要3D声音 。
此更新的真正好处可能是手机附带了AR,可让您向地图上的音频点头,从而在Apple Glasses眼镜上为您提供路线或AR 。
就App Clip而言,这完全是直接的好处 , 例如无需实际下载完整的应用程序就付款 , 但最终目的似乎是帮助您通过扫描实际对象来启动AR体验 。然后在Apple的Vision框架中实现了手势操纵的“手势”识别,在ARKit 4中使用“ LiDAR”对不同对象和材料进行分类的“场景几何” 。