Meta Connect 2024 fue una avalancha de anuncios que mostraron los ambiciosos planes de la compañía para la realidad aumentada (AR), la inteligencia artificial (IA) y el nuevo hardware. Mark Zuckerberg, director ejecutivo de Meta, dirigió la conferencia magistral con una serie de innovaciones, que van desde gafas AR futuristas hasta funciones avanzadas de inteligencia artificial.
El evento estuvo lleno de revelaciones innovadoras, incluido el debut del prototipo de gafas Orion AR, la introducción de los auriculares Meta Quest 3S y actualizaciones significativas de la IA de Meta y las gafas inteligentes Ray-Ban.
Gafas Orion AR: la nueva interpretación de Meta de AR
La mayor sorpresa del evento fue sin duda la presentación de las gafas Orion AR de Meta, un prototipo que ofrece una experiencia totalmente holográfica. A diferencia de todo lo visto antes, estos anteojos están diseñados para parecerse a anteojos normales, aunque un poco más gruesos, con mucha tecnología avanzada escondida en su interior.
Las gafas presentan una nueva arquitectura de pantalla y son completamente transparentes, lo que permite a los usuarios interactuar con objetos virtuales perfectamente integrados en el mundo real. El control se logra a través de un sistema de gestos manuales basado en una red neuronal, operado por una pulsera.
Las demostraciones en el evento mostraron las gafas utilizadas en diversos escenarios, desde juegos hasta ventanas superpuestas en el campo de visión del usuario. También se mostró un breve vistazo a las videollamadas a través de avatares personales, lo que indica el potencial de estas gafas para revolucionar la forma en que las personas se comunican. A pesar de estar sólo en la fase de prototipo, las gafas Orion fueron elogiadas por su ligereza, lograda gracias a una montura de magnesio y lentes de carburo de silicio.
Meta, sin embargo, reconoció que todavía faltan algunos años para que estos vasos estén disponibles para el consumidor y que el precio es un factor importante que debe abordarse. Sin embargo, se espera que pronto se lancen los primeros kits de desarrollo para personas seleccionadas.
Meta Quest 3S ya es oficial
Otro momento importante fue el anuncio oficial de Meta Quest 3S, un casco de realidad mixta que pretende hacer más accesible esta avanzada tecnología. Los rumores han estado circulando por un tiempo, pero Meta finalmente lo hizo oficial. El Quest 3S se posiciona como un dispositivo básico en la gama de auriculares Quest, con precios que comienzan en $ 299,99 / £ 289,99 / AU $ 499,99 para el modelo de 128 GB.
El diseño del Quest 3S recuerda a su predecesor, el Quest 3, pero con algunos cambios notables, particularmente en la pila de cámaras frontales. Los auriculares están diseñados para ofrecer realidad mixta de alta calidad a un precio más asequible, haciéndolo accesible a un público más amplio.
Las experiencias prácticas iniciales resaltaron el poder del procesador Qualcomm integrado, que manejaba sin esfuerzo el sistema operativo Horizon, experiencias de juego como Batman: Arkham Shadow y multitarea en múltiples ventanas. El Quest 3S se perfila como una opción interesante para aquellos que buscan explorar la realidad mixta sin gastar mucho dinero.
Meta AI, ahora con voces de celebridades y funciones mejoradas
Meta también ha logrado grandes avances en el campo de la inteligencia artificial, introduciendo una serie de actualizaciones en su plataforma Meta AI. Una de las novedades más interesantes es la incorporación de voz al chatbot de IA, con las voces de celebridades como John Cena, Keegan-Michael Key y Kristen Bell entre las primeras en introducirse.
Esta nueva característica permite a los usuarios entablar conversaciones realistas y humanas con Meta AI en varias aplicaciones, incluidas Facebook, Instagram DM, WhatsApp y Messenger. Esta mejora alinea a Meta AI con otros actores importantes de la IA, como OpenAI, Google y Apple, quienes están integrando capacidades de voz en sus productos de IA.
Las gafas inteligentes Ray-Ban Meta se vuelven aún más inteligentes
Si bien no son tan revolucionarias como el prototipo Orion, las Meta Smart Glasses de Ray-Ban han recibido una actualización sustancial. Estas gafas, que ya han ganado popularidad, ahora ofrecen acceso manos libres a diversos servicios de audio, como Spotify y Audible. Los usuarios pueden solicitar canciones o géneros específicos, y las gafas brindarán una interacción conversacional natural, impulsada por Meta AI.
Además de las mejoras de audio, las gafas inteligentes Ray-Ban pronto podrán gestionar consultas de traducción de idiomas. Los usuarios pueden ver texto en idiomas como español, francés o italiano y pedirle a Meta AI que lo traduzca en tiempo real. Esta característica se demostró en el evento y funcionó bien en un entorno controlado. Otras actualizaciones incluyen recordatorios visuales, transiciones más rápidas de lentes a gafas de sol y funciones Meta AI para contenido de video. Se espera que todas estas funciones estén disponibles antes de 2025, lo que hará que las gafas Ray-Ban Meta Smart sean aún más versátiles y fáciles de usar.
Una nueva herramienta de generación de imágenes para Facebook e Instagram |
Finalmente, Meta anunció la integración de la generación de imágenes mediante IA en Facebook e Instagram, llevando su funcionalidad Imagine a estas plataformas. Similar a Image Playground de Apple, esta herramienta permite a los usuarios crear imágenes de cualquier cosa que puedan imaginar y compartirlas directamente en sus redes sociales.
Se espera que esta característica agregue una nueva dimensión a la forma en que los usuarios crean e interactúan con contenido en Facebook e Instagram, ofreciendo infinitas posibilidades creativas.
Traducción con IA para carretes de Instagram: rompiendo las barreras del idioma
Meta también está superando los límites de la inteligencia artificial en las redes sociales con una nueva herramienta de traducción para Instagram y Facebook Reels. Esta herramienta, que actualmente se está probando en EE. UU. y América Latina, permite a los creadores de contenido llegar a audiencias más amplias mediante doblaje automático y sincronización de labios.
El objetivo es permitir a los usuarios ver contenidos de vídeo de todo el mundo en su propio idioma sin necesidad de subtítulos. Esto podría cambiar las reglas del juego tanto para los creadores de contenido como para los consumidores, facilitando la interacción con contenido de diferentes culturas e idiomas.