Oklusi Dinamis Realitas Campuran Quest 3 Kini Memiliki Kualitas Lebih Tinggi dengan Performa Lebih Baik

Oklusi dinamis pada Quest 3 saat ini hanya didukung di beberapa aplikasi, tetapi sekarang kualitasnya lebih tinggi, menggunakan lebih sedikit CPU dan GPU, dan sedikit lebih mudah diterapkan oleh pengembang.

Oklusi mengacu pada kemampuan objek virtual untuk muncul di balik objek nyata, kemampuan penting untuk headset realitas campuran. Melakukan hal ini hanya untuk pemandangan yang telah dipindai sebelumnya dikenal sebagai oklusi statis, sedangkan jika sistem mendukung perubahan pemandangan dan objek yang bergerak, hal ini dikenal sebagai oklusi dinamis.

Deskripsi dasar konsep umum oklusi dari Meta.

Quest 3 diluncurkan dengan dukungan untuk oklusi statis tetapi tidak oklusi dinamis. Beberapa hari kemudian oklusi dinamis dirilis sebagai fitur “eksperimental” untuk pengembang, yang berarti tidak dapat dikirimkan di Quest Store atau App Lab, dan pada bulan Desember pembatasan tersebut dicabut.

Pengembang menerapkan oklusi dinamis pada setiap aplikasi menggunakan Depth API milik Meta, yang menyediakan peta kedalaman kasar per bingkai yang dihasilkan oleh headset. Namun, mengintegrasikannya merupakan proses yang relatif rumit. Pengembang harus memodifikasi shader mereka untuk semua objek virtual yang ingin mereka oklusi, jauh dari skenario ideal solusi satu klik. Dengan demikian, sangat sedikit aplikasi realitas campuran Quest 3 yang saat ini mendukung oklusi dinamis.

Masalah lain dengan oklusi dinamis pada Quest 3 adalah peta kedalaman memiliki resolusi yang sangat rendah, sehingga Anda akan melihat celah kosong di sekitar tepian objek dan tidak akan menangkap detail seperti ruang di antara jari-jari Anda.

Rekaman dari Meta.

Namun, dengan Meta XR Core SDK v67, Meta telah sedikit meningkatkan kualitas visual Depth API dan mengoptimalkan kinerjanya secara signifikan. Perusahaan tersebut mengatakan bahwa kini menggunakan GPU 80% lebih sedikit dan CPU 50% lebih sedikit, sehingga membebaskan sumber daya tambahan bagi pengembang.

Untuk memudahkan pengembang dalam mengintegrasikan fitur tersebut, v67 juga menambahkan dukungan untuk menambahkan oklusi dengan mudah ke shader yang dibangun dengan alat Shader Graph Unity, dan menyusun ulang kode Depth API agar lebih mudah digunakan.

Saya mencoba Depth API dengan v67 dan dapat mengonfirmasi bahwa ia memberikan oklusi berkualitas sedikit lebih tinggi, meskipun masih sangat kasar. Namun v67 memiliki trik lain yang lebih penting daripada peningkatan kualitas mentah.

UploadVR mencoba Depth API dengan oklusi hand mesh di SDK v67.

Depth API kini memiliki opsi untuk mengecualikan tangan yang dilacak dari peta kedalaman sehingga tangan tersebut dapat ditutup menggunakan jaring pelacak tangan. Beberapa pengembang telah menggunakan jaring pelacak tangan untuk melakukan oklusi hanya tangan sejak lama, bahkan pada Quest Pro misalnya, dan dengan v67 Meta menyediakan contoh yang menunjukkan cara melakukan ini bersama Depth API untuk oklusi semua hal lainnya.

Saya mengujinya dan menemukannya memberikan oklusi berkualitas jauh lebih tinggi untuk tangan Anda, meskipun ia menambahkan beberapa bercak di dekat pergelangan tangan Anda pada titik transisi antara jaring tangan dan peta kedalaman.

Sebagai perbandingan, Apple Vision Pro memiliki oklusi dinamis hanya untuk tangan dan lengan Anda. Ia menutupinya sebagai bentuk 2D untuk setiap mata, sama seperti Zoom menutupi Anda dari tampilan webcam, alih-alih membuat peta kedalaman. Itu berarti pada headset Apple, kualitas oklusi untuk tangan dan lengan Anda jauh lebih tinggi, meskipun Anda akan melihat keanehan seperti objek yang Anda pegang muncul di balik objek virtual dalam AR dan tidak terlihat dalam VR.

Pengembang Quest dapat menemukan dokumentasi Depth API untuk Unity di sini dan untuk Unreal di sini.