Meta ha presentado Orion, su primer prototipo de gafas de realidad aumentada (RA) con un diseño sin cables y con un peso inferior a 100 gramos, que incluyen pantallas holográficas con un amplio campo de visión y unas pulseras EMG para registrar los movimientos del usuario.
La compañía tecnológica ha dado a conocer sus últimas novedades en el marco de su evento anual Meta Connect 2024, que ha contado con novedades de ‘hardware’, con el nuevo visor Meta Quest 3S, y también con novedades sobre sus ‘wearables’, con un nuevo prototipo de RA y nuevas funciones de IA para sus Ray-Ban Meta.
En este contexto, Meta ha presentado su primer prototipo de gafas de realidad aumentada Orion, un producto que combina los beneficios de una pantalla holográfica y asistencia de Inteligencia Artificial (IA) en un formato «cómodo y elegante que se puede utilizar durante todo el día». Tal y como ha detallado la tecnológica capitaneada por Mark Zuckerberg, se trata de un prototipo en el llevan trabajando diez años, con el objetivo de conseguir ofrecer una experiencia RA avanzada en un par de gafas, «utilizando una fracción de la energía y el peso que un casco de realidad aumentada«.
Así, este dispositivo destaca por ofrecer un diseño similar a unas gafas de sol, ligero (menos de 100 gramos) y sin cables que, además, dispone de pantallas holográficas con un amplio campo de visión de aproximadamente 70 grados, a través de las que se permite ver el mundo físico combinado con experiencias digitales en 2D y 3D.
De esta forma, permite usos inmersivos que comprenden desde ventanas multitarea y entretenimiento, hasta hologramas de personas en tamaño real, combinados con el mundo físico. Asimismo, con estas pantallas, aunque los usuarios estén viendo contenido digital, de cara al exterior, se continúan mostrando los ojos y el rostro real de la persona.
Siete cámaras integradas
Siguiendo esta línea -ha matizado Meta- las imágenes holográficas podrán mostrarse en cualquier espacio independientemente de la iluminación, ya que las pantallas adaptan la luminosidad al ambiente para permitir ver con claridad en todo momento.
Así, las gafas se han fabricado utilizando carburo de silicio para las lentes, lo que garantiza que sean livianas y resistentes. Además este material tiene un alto índice de refracción, por lo que permite un campo de visión amplio. Todo ello se completa con la integración de proyectores Micro LED, que superponen las imágenes sobre lo que los usuarios ven en el mundo físico, a modo de hologramas.
Otro de los componentes clave en estas gafas RA son las siete cámaras integradas, con las que permite adaptar de forma precisa los hologramas a lo que el usuario está viendo, para lograr una experiencia unificada. Además, estas cámaras también registran el seguimiento ocular.
Como complemento, para el seguimiento de los gestos de los usuarios, las gafas Orion se acompañan de pulseras EMG. Este accesorio también es inalámbrico y convierte los movimientos de las manos en acciones de ‘clic’ o desplazamientos por la pantalla. Para su funcionamiento utiliza sensores de electromiografía, que detectan las señales eléctricas generadas «incluso por los movimientos musculares más pequeños».
Además de todo ello, aunque las gafas Orion no requieren conexión a un smartphone para funcionar, sí están ligadas a un ordenador inalámbrico de pequeño formato. Así, la idea es poder guardar el ordenador en un bolsillo para llevarlo junto a las gafas de forma cómoda.
Mientras que las gafas ejecutan todos los algoritmos de seguimiento de manos, seguimiento ocular y gráficos de RA, este ordenador, llamado Wireless Compute Puck, ejecuta la lógica de la aplicación. Para ello, incluye dos procesadores que gestionan la representación de gráficos de baja latencia y las funciones de IA.
Todo ello se completa con la tecnología de IA contextual del asistente Meta AI, que detecta y comprende el mundo físico a su alrededor, de manera que anticipa las necesidades de los usuarios. De esta forma, las gafas permiten interaccionar con comandos de voz y gestos manuales.
Con todo ello, aunque se trata de un prototipo y, por tanto, aún no es apto para su uso por parte de los usuarios, Meta ha subrayado que «podría ser el dispositivo electrónico de consumo más desafiante producido desde el smartphone«.
Novedades en ray-ban meta
Meta también ha aprovechado su conferencia para anunciar novedades de IA que llegarán a sus gafas Ray-Ban Meta. Al respecto, ha señalado que están trabajando para ofrecer nuevas integraciones con Spotify, Shazam y Audible.
Además, otro de los puntos que ha resaltado la compañía son las mejoras de experiencia de las gafas Ray-Ban con el asistente inteligente Meta AI. En este caso, ha subrayado que está evolucionando hacia un asistente «más conversacional y natural».
Con ello, bastará con decir una vez ‘Hey Meta’ para comenzar a conversar, sin necesidad de repetirlo cada vez que se quiera interaccionar con las gafas. Igualmente, el sistema de visión de las gafas también será capaz de escanear elementos visuales como texto o códigos QR y, en base a ello, llevar a cabo acciones como llamadas.
Otra de las novedades anunciadas es la posibilidad de que las gafas ayuden a recordar cosas. Por ejemplo, podrán ayudar a los usuarios memorizando dónde han aparcado y recordándoles esta información posteriormente. Igualmente, también pueden solicitar que las gafas les recuerden cuándo deben enviar un mensaje o realizar una llamada.
Por otra parte, Meta ha anunciado que ha añadido soporte para la entrada de vídeo en el asistente Meta AI, por lo que podrá ofrecer asistencia continua en tiempo real. Según ha ejemplificado, se trata de una función útil al explorar una ciudad, ya que el asistente acompañará al usuario y le ofrecerá información sobre los puntos de referencia que se estén visitando en tiempo real.
Asimismo, la compañía ha adelantado que «pronto» las gafas podrán traducir el lenguaje en tiempo real. De esta manera, cuando el usuario esté hablando con otra persona en otro idioma, podrá escuchar lo que dice dicha persona traducido al inglés, a través de los altavoces de las gafas.
Además de todo ello, Meta ha anunciado la incorporación de la nueva gama de lentes Transitions de EssilorLuxottica a la colección Ray-Ban Meta, así como una nueva edición limitada de monturas Shiny Transparent Wayfarer. También ha compartido su asociación con Be My Eyes, una aplicación gratuita que permite conectar, a través de vídeo, a personas ciegas o con discapacidad visual, con voluntarios que tienen visión, para que les informen sobre lo que tienen delante y les guíen.
Nuevas capacidades para su asistente Meta AI
En paralelo, Meta también ha presentado nuevas capacidades de IA para su asistente Meta AI, que podrá conversar con los usuarios mediante respuestas por voz a través de Facebook, Messenger, WhatsApp e Instagram DM, así como interaccionar con imágenes, editándolas o generando nuevo contenido. Entre ellas destaca la capacidad de interaccionar de forma más natural añadiendo voz. Es decir, Ahora, los usuarios podrán interaccionar con Meta AI a través de Facebook, Messenger, WhatsApp e Instagram DM, y el asistente responderá a través de contestaciones por voz.
Por otra parte, dado que, ahora, el asistente Meta AI puede procesar información visual, los usuarios podrán preguntar o interaccionar sobre contenido que aparezca en imágenes, como fotografías publicadas en redes sociales.
Siguiendo esta línea, gracias a la capacidad de procesar información visual Meta ha implementado nuevas opciones para las herramientas de edición de IA. En concreto, los usuarios podrán subir una foto y llevar a cabo ediciones precisas mediante indicaciones. Hasta ahora, Meta AI solo permitía editar imágenes generadas por la IA, sin embargo, con esta nueva opción los usuarios podrán añadir, eliminar o cambiar elementos de sus fotos reales.