Google memamerkan kacamata pintar ramping dengan HUD di TED2025

Di TED2025 Google memamerkan kacamata pintar ramping dengan HUD, meskipun perusahaan menggambarkan mereka sebagai “perangkat keras konseptual”.

Shahram Izadi, pemeran utama Google Android XR, turun ke tahap TED awal bulan ini untuk memamerkan kacamata HUD dan headset XR Samsung yang akan datang, dan pembicaraan 15 menit sekarang tersedia untuk ditonton secara publik.

Supercut dari demo TED2025.

Kacamata ini menampilkan kamera, mikrofon, dan speaker, seperti kacamata meta Ray-Ban, tetapi juga memiliki “resolusi kecil dalam tampilan lensa yang penuh warna”. Layar tampaknya monokuler, membiaskan cahaya di lensa kanan bila dilihat dari sudut kamera tertentu selama demo, dan memiliki bidang pandang yang relatif kecil.

Demo ini berfokus pada sistem AI percakapan Gemini Google, termasuk kemampuan Project Astra yang memungkinkannya mengingat apa yang dilihatnya melalui “pengkodean bingkai video yang terus -menerus, menggabungkan input video dan pidato ke dalam garis waktu peristiwa, dan caching informasi ini untuk penarikan yang efisien”.

Inilah semua yang Izadi dan rekannya Nishtha Bhatia pamer di demo:

  • Multimodal Dasar: Bhatia meminta Gemini untuk menulis haiku berdasarkan apa yang dia lihat, sambil melihat penonton, dan itu merespons “menghadapi semua aglow. Pikiran yang bersemangat menunggu kata -kata. Spark of Thought Ignite”
  • Memori kontekstual bergulir: Setelah memalingkan muka dari rak, yang berisi benda -benda termasuk buku, Bhatia bertanya kepada Gemini apa judul “buku putih yang ada di rak di belakang saya”, dan itu menjawab dengan benar. Dia kemudian mencoba pertanyaan yang lebih sulit, menanyakan di mana “kartu kunci hotel” -nya, tanpa memberikan petunjuk tentang rak. Gemini dengan benar menjawab bahwa itu di sebelah kanan rekaman musik.
  • Multimodal yang kompleks: Memegang buku terbuka, Bhatia bertanya pada Gemini apa arti diagram, dan menjawab dengan benar.
  • Terjemahan: Bhatia melihat tanda Spanyol, dan tanpa memberi tahu Gemini bahasa apa itu, meminta Gemini untuk menerjemahkannya ke bahasa Inggris. Itu berhasil. Untuk membuktikan bahwa demo itu langsung, Izadi kemudian meminta penonton untuk memilih bahasa lain, seseorang memilih Farsi, dan Gemini berhasil menerjemahkan tanda ke Farsi juga.
  • Dukungan multi-bahasa: Bhatia berbicara kepada Gemini dalam bahasa Hindi, tanpa perlu mengubah “mode” atau “pengaturan” bahasa apa pun, dan itu merespons secara instan dalam bahasa Hindi.
  • Mengambil Aksi (Musik): Sebagai contoh bagaimana Gemini pada kacamata dapat memicu aksi di ponsel Anda, Bhatia melihat album fisik yang dia pegang dan memberitahu Gemini untuk memainkan lagu darinya. Itu memulai lagu di ponselnya, mengalirkannya ke kacamata melalui Bluetooth.
  • Navigasi: Bhatia meminta Gemini untuk “menavigasi saya ke sebuah taman di dekatnya dengan pemandangan laut”. Ketika dia melihat langsung ke depan, dia melihat instruksi turn-by-turn 2D, sementara ketika melihat ke bawah dia melihat minimap 3D (meskipun diperbaiki) yang menunjukkan rute perjalanan.

Google menggoda kacamata pintar AI dengan HUD di I/O 2024

Google menggoda kacamata pintar AI multimodal dengan HUD di I/O 2024.

Ini bukan pertama kalinya Google memamerkan kacamata pintar dengan HUD, dan ini bahkan bukan pertama kalinya Demo telah berfokus pada kemampuan Proyek Astra Gemini. Di Google I/O 2024, hampir satu tahun yang lalu, perusahaan menunjukkan demo singkat dari teknologi tersebut.

Kacamata tahun lalu terutama lebih besar dari apa yang ditunjukkan di TED2025, bagaimanapun, menunjukkan bahwa perusahaan secara aktif bekerja pada miniaturisasi dengan tujuan memberikan produk.

Namun, Izadi masih menjelaskan apa yang ditampilkan Google sebagai “perangkat keras konseptual”, dan perusahaan belum mengumumkan produk tertentu, atau garis waktu produk.

Pada bulan Oktober, Sylvia Varnham O'Regan informasi melaporkan bahwa Samsung sedang mengerjakan pesaing meta ray-ban dengan Google Gemini AI, meskipun tidak jelas apakah produk ini akan memiliki HUD.

Harga kacamata meta hud, fitur & perangkat input dilaporkan terungkap

Laporan Bloomberg baru merinci harga dan fitur kacamata HUD yang akan datang, dan mengklaim bahwa gelang saraf Meta akan ada di dalam kotak.

Jika memang memiliki HUD, itu tidak akan sendirian di pasar. Selain selusin startup yang memamerkan prototipe di CES, meta Mark Zuckerberg dilaporkan berencana untuk meluncurkan kacamata pintar sendiri dengan HUD akhir tahun ini.

Seperti kacamata yang ditunjukkan Google di TED2025, kacamata Meta dilaporkan memiliki tampilan kecil di mata kanan, dan fokus yang kuat pada AI multimodal (dalam kasing Meta, meta AI bertenaga Llama).

Tidak seperti kacamata Google, yang tampaknya terutama dikendalikan oleh suara, kacamata HUD Meta akan dilaporkan juga dapat dikendalikan melalui gerakan jari, yang dirasakan oleh gelang saraf SEMG yang disertakan.

Apple juga dilaporkan mengerjakan kacamata pintar, dengan rencana nyata untuk merilis produk pada tahun 2027.

Apple mengeksplorasi merilis kacamata pintar di tahun 2027

Apple tampaknya menjelajahi membuat kacamata pintar, dan dilaporkan bisa mengirimkan produk pada tahun 2027.

Ketiga perusahaan kemungkinan berharap untuk membangun keberhasilan awal kacamata meta Ray-Ban, yang baru-baru ini melewati 2 juta unit yang dijual, dan akan melihat produksi mereka meningkat pesat.

Harapkan persaingan dalam kacamata pintar untuk menjadi ganas di tahun -tahun mendatang, ketika raksasa teknologi bertarung untuk mengontrol AI yang melihat apa yang Anda lihat dan mendengar apa yang Anda dengar, dan kemampuan untuk memproyeksikan gambar ke dalam pandangan Anda kapan saja.