在 Connect 2025 的發布會上,Meta 宣布推出 Hyperscape Capture beta 版本,這項技術讓 Quest 3 及 Quest 3S 的用戶能夠掃描現實環境,並創建逼真的虛擬實境複製品,標誌著公司在元宇宙領域的重大進展。用戶只需短短幾分鐘便可以將自己的實體空間轉化為可供探索的數碼環境。
Hyperscape Capture 的操作分為三個簡單步驟。首先,用戶需要佩戴 Quest 頭戴裝置,通過轉動頭部來環視房間,建立場景的網格,這個過程與設置房間感知混合實境相似,大約需要 10 到 30 秒。其次,最耗時的是用戶需遍及房間的每一個角落,將頭部靠近 3D 網格進行細節掃描,這個步驟約需數分鐘時間。
掃描完成後,數據會被上傳至 Meta 的伺服器,並需等待 2 至 4 小時處理,才能收到掃描完成的通知。整個渲染過程採用了 Gaussian splatting 技術,並使用 Meta 内部的 Project Avalanche 雲端串流技術來實現。
在 Meta Connect 2025 的現場試用中,外媒體驗了多個預先掃描的空間,包括 Gordon Ramsay 的廚房、UFC 八角籠等環境。雖然解像度仍未達到 Meta 的最高標準,但圖像品質相當逼真,用戶可以清楚觀察到桌上的食物、書籍等細節。不過,當用戶過於接近某些物件時,例如報紙上的文字可能會出現輕微模糊的情況。
目前,用戶只能探索自己掃描的房間,但 Meta 表示不久將推出分享功能,讓用戶能透過私人連結邀請其他人進入自己的數碼空間。Hyperscape Capture 目前僅限於年滿 18 歲的 Quest 3 及 Quest 3S 用戶。
雖然 Meta 最近把重心轉向人工智能相關技術,但 Hyperscape 的推出顯示出公司依然將虛擬實境及元宇宙視作為重要的發展方向。在這次的 Connect 2025 發布會上,Meta 也同時推出了多款智能眼鏡產品,包括新的 Ray-Ban Meta 智能眼鏡及首款配備顯示屏的 Ray-Ban Display 眼鏡,顯示出公司在擴增實境產品線上的多元化發展。


