Meta CTO 揭示 Quest 3 不支持持续房间建模的技术取舍与挑战
为什么 Meta Quest 3 不支持“持续场景建模”?Meta CTO 解释背后的挑战
从用户角度来看,环境扫描(room scanning) 一直是影响 Meta Quest 3 和 Quest 3S 混合现实(MR)体验的主要障碍之一。
目前,用户在使用混合现实应用前,必须提前对房间进行一次完整的扫描,这个过程可能需要几分钟时间,具体取决于房间的大小和复杂程度。更麻烦的是,一旦家具位置发生变化,当前的 3D 场景模型是静态的,需要手动重新扫描才能更新 —— 有时甚至要完全重做。
这种繁琐的操作流程让不少用户体验大打折扣。试想一下,工作了一整天回到家,只想戴上头显放松一下,却还要先花几分钟扫描房间,才能开始玩 MR 游戏,这对普通用户来说确实不太友好。
Meta CTO 揭秘:持续扫描为何尚未实现?
在最近一次 Instagram 的 AMA(Ask Me Anything)问答中,Meta 首席技术官 Andrew Bosworth 回应了关于 Quest 系列设备为何尚未支持“持续场景建模”(continuous scene meshing)的问题,并详细解释了背后的技术挑战。
他表示:
“这个问题其实有两个层面。
第一就是 计算资源。持续不断地重新计算你周围环境的变化是非常耗费性能的。而这些热能和计算资源,我们也可以用在其他方面,我们认为那些功能可能对你更有价值。
第二个难点在于 模型本身。如果你已经预先构建好了整个环境模型并交给应用程序,那它就可以对这个空间做出很多预测。
但如果环境是不断变化的,应用程序就必须具备更高的动态响应能力。比如这张桌子可能会移动,沙发也可能会被搬走,那么在这种情况下,应用该如何应对?”
Bosworth 进一步指出:
“目前大多数混合现实体验都发生在相对静态的环境中。但这种情况未来会改变。我可以明确地说,我们最终会实现这一点 —— 持续建模将成为一种常态。”
他还提到,Meta 曾经尝试过一些初步方案,例如检测用户是否越界等行为。“但这始终是一个权衡问题 —— 一方面受限于当前的算力,另一方面也要考虑开发者长期使用的模型架构。”
苹果 Vision Pro 已实现,Quest 为何落后?
提问的用户也指出了一个现实问题:像 Apple Vision Pro 这样的设备已经实现了“持续房间扫描”的功能。
关键区别在于硬件配置。Vision Pro 内置了 LiDAR(激光雷达)传感器,能够快速、精准地捕捉环境深度信息,为实时建模提供了强有力的支持。
而 Meta Quest 3 和 3S 主要依赖于 计算机视觉算法 来完成环境感知任务,这种方式虽然成本更低,但也带来了更大的计算负担,尤其是在需要实时更新的场景下。
尽管部分 VR 开发者正在尝试通过自定义算法实现类似的连续扫描功能,但这些方案往往会导致显著的性能损耗,尤其在当前硬件条件下并不实用。
Quest 4 或将带来突破?
如果未来的 Meta Quest 4 能够搭载更强的深度传感器(如 LiDAR)以及更高性能的处理器,那么“手动扫描房间”的操作或许将成为历史。
不过,加入这类先进硬件也会带来额外的成本压力,从而可能导致设备价格上升。
今年早些时候,Meta 曾透露正在改进房间扫描系统,但截至目前,官方尚未公布任何具体的时间表。
总结:技术路线不同,Meta 正在稳步推进
尽管目前的 Quest 3 还不支持持续场景建模,但这并非因为 Meta 技术落后,而是出于性能与实用性之间的平衡考量。随着硬件升级和软件优化的推进,这一功能在未来可期。
对于期待更智能、更无缝的混合现实体验的用户而言,也许只需耐心等待,就能看到 Meta 在下一代表现更出色的 MR 头显中实现这一目标。