Probamos las nuevas gafas Ray-Ban de Meta, ahora con IA
Como señal de que la industria tecnológica sigue volviéndose cada vez más extraña, Meta planea lanzar pronto una gran actualización que transformará las Ray-Ban Meta, sus gafas con cámara que graban videos, en un artilugio visto solo en películas de ciencia ficción.
En abril, las gafas podrán utilizar un nuevo software de inteligencia artificial para ver el mundo real y describir lo que estás viendo, similar al asistente de IA de la película Ella.
Las gafas, con distintos armazones a partir de 300 dólares y lentes desde 17 dólares, se han utilizado sobre todo para tomar fotos y videos y escuchar música. Pero con el nuevo software de IA, pueden utilizarse para escanear lugares famosos, traducir idiomas e identificar razas de animales y frutas exóticas, entre otras tareas.
Para utilizar el software de IA, los usuarios solo tienen que decir “Hey, Meta”, seguido de una instrucción, como “Mira y dime qué tipo de perro es este”. Acto seguido, la IA responderá con una voz generada por computadora que se reproduce a través de las diminutas bocinas de las gafas.
El concepto del software de IA es tan novedoso y peculiar que cuando nos enteramos —nosotros, Brian X. Chen, columnista de tecnología que analizó las Ray-Ban el año pasado, y Mike Isaac, que da cobertura a Meta y usa las gafas inteligentes para producir un programa de cocina— nos moríamos por probarlo. Meta nos dio acceso anticipado a la actualización y hemos probado la tecnología durante las últimas semanas.
Usamos las gafas en un zoológico, un supermercado y un museo y acribillamos a la IA con preguntas e instrucciones.
El resultado: nos divirtieron los errores del asistente virtual —como por ejemplo, cuando confundió un mono con una jirafa— y nos impresionó cuando realizó tareas útiles como determinar que un paquete de galletas no contenía gluten.
[En el video a continuación: ¿Qué sucede cuando un columnista y un reportero utilizan gafas con IA para escanear comestibles, monumentos y animales del zoológico?]
Un portavoz de Meta dijo que, debido a que la tecnología era aún nueva, la inteligencia artificial no siempre haría las cosas bien y que la retroalimentación mejoraría las gafas con el tiempo.
El software de Meta también creó transcripciones de nuestras preguntas y de las respuestas de la IA, que almacenamos en capturas de pantalla. A continuación, lo más destacado de nuestro mes de convivencia con el asistente de Meta.
Mascotas
BRIAN: Naturalmente, lo primero en lo que tuve que probar la IA de Meta fue en mi corgi, Max. Miré al perro regordete y le pregunté: “Hey, Meta, ¿qué estoy mirando?”.
“Un lindo perro corgi sentado en el suelo con la lengua fuera”, dijo el asistente. Correcto, sobre todo en lo de que es lindo.
MIKE: La IA de Meta reconoció correctamente a mi perra, Bruna, como un “Boyero de Berna color negro con café”. Esperaba un poco que la IA pensara que era un oso, el animal con el que más la confunden los vecinos.
Animales de zoológico
BRIAN: Después de que la IA identificara correctamente a mi perro, el siguiente paso lógico era probarla con animales de zoológico. Así que me fui a visitar el zoológico de Oakland, donde contemplé durante 2 horas una decena de animales: loros, tortugas, monos y cebras. Dije: “Hey, Meta, mira y dime qué clase de animal es ese”.
La IA se equivocó la inmensa mayoría de las veces, en parte porque muchos animales estaban enjaulados y más alejados. Confundió un primate con una jirafa, un pato con una tortuga y un suricato con un panda gigante, entre otras confusiones. Por otro lado, me impresionó que la IA identificara correctamente una especie de loro conocido como guacamayo azul y amarillo, así como a las cebras.
Lo más extraño de ese experimento fue hablar con un asistente de IA cerca de niños y sus padres, quienes fingieron no escuchar al único adulto que estaba solo en el parque mientras yo murmuraba para mis adentros.
MIKE: También pasé un rato peculiar haciendo las compras. Estar dentro de un Safeway y hablar solo fue un poco vergonzoso, así que intenté hablar en voz baja. Aun así, me miraron de reojo varias veces.
Cuando la IA de Meta funcionó, fue una maravilla. Tomé un paquete de galletas Oreo de aspecto extraño y le pedí que mirara el envoltorio y me dijera si contenían gluten. (Sí tenían). La mitad de las veces respondió correctamente a ese tipo de preguntas, aunque no puedo afirmar que ahorrara tiempo en comparación con leer directamente la etiqueta.
Sin embargo, la razón por la que empecé a usar estas gafas fue comenzar mi propio programa de cocina en Instagram, una forma halagadora de decir que me grabo haciendo la comida de la semana mientras hablo conmigo mismo. Esas gafas hicieron que hacerlo fuera mucho más fácil que usar el celular con la mano y cocinar con la otra.
El asistente de IA también puede ofrecer ayuda en la cocina. Por ejemplo, si necesito saber cuántas cucharaditas hay en una cucharada y tengo las manos cubiertas de aceite de oliva, puedo pedirle que me lo diga. (Hay tres cucharaditas en una cucharada, para que lo sepas).
Pero cuando le pedí a la IA que mirara un puñado de ingredientes que tenía y me diera una receta, me escupió instrucciones rápidas para un flan de huevo, lo que no me ayudó mucho a seguir las instrucciones a mi ritmo.
BRIAN: Fui al supermercado y compré la fruta más exótica que encontré: una chirimoya, una fruta verde escamosa que parece un huevo de dinosaurio. Cuando le di a la IA de Meta varias oportunidades para identificarla, cada vez dio como respuesta una cosa distinta: una nuez cubierta de chocolate, una drupa, una manzana y, por último, un durián, que se acercó, pero que al final no fue la respuesta adecuada.
Monumentos y museos
MIKE: La capacidad del nuevo software para reconocer puntos de referencia y monumentos parecía funcionar muy bien. Al mirar una cúpula en el centro de San Francisco, la IA de Meta respondió correctamente: “Ayuntamiento”. Es un truco ingenioso y quizá útil si eres turista.
Otras veces no acertó. Mientras conducía de la ciudad a mi casa en Oakland, le pregunté a Meta en qué puente estaba mientras miraba por la ventana delante de mí (con ambas manos en el volante, por supuesto). La primera respuesta fue el puente Golden Gate, un error. En el segundo intento, se dio cuenta de que estaba en el Puente de la Bahía, lo que me hizo preguntarme si solo había requerido de una imagen más clara de los altos postes colgantes blancos de la parte más nueva para acertar..
BRIAN: Visité el Museo de Arte Moderno de San Francisco para comprobar si la IA de Meta podía funcionar como guía turístico. Después de tomar fotos a casi dos decenas de cuadros y pedirle al asistente que me hablara de la obra que estaba viendo, la IA pudo describir las imágenes y los medios utilizados para componer la obra —lo que estaría bien para un estudiante de historia del arte—, pero no logró identificar al artista ni el título. (Un portavoz de Meta dijo que otra actualización de software que se lanzó después de mi visita al museo mejoró esa capacidad).
Después de la actualización, probé con imágenes en la pantalla de mi computadora de obras de arte más famosas, incluida la Mona Lisa, y la IA las identificó correctamente.
Conclusión
Las gafas con inteligencia artificial de Meta ofrecen una visión intrigante de un futuro que parece lejano. Sus defectos ponen de manifiesto las limitaciones y los retos que plantea el diseño de este tipo de productos. Por ejemplo, las gafas podrían identificar mejor a los animales del zoológico y la fruta si la cámara tuviera más resolución, pero un lente de mejor calidad añadiría volumen. Y estuviéramos donde estuviéramos, resultaba incómodo hablar con un asistente virtual en público. Todavía no sabemos si eso alguna vez se sentirá normal.
Pero cuando funcionó, lo hizo bien y nos divertimos. El hecho de que la IA de Meta pueda hacer cosas como traducir idiomas e identificar puntos de referencia a través de unas gafas de aspecto moderno demuestra lo lejos que ha llegado la tecnología.