Un investigador de IA se prepara para los ‘deepfakes’ en las elecciones
Durante casi 30 años, Oren Etzioni fue uno de los investigadores más optimistas sobre la inteligencia artificial.
Sin embargo, en 2019, Etzioni, profesor de la Universidad de Washington y director ejecutivo fundador del Instituto Allen para la Inteligencia Artificial, se convirtió en uno de los primeros investigadores en advertir que una nueva especie de IA aceleraría la propagación de desinformación en línea. A mediados del año pasado, dijo que le preocupaba que los ultrafalsos (o deepfakes) generados por la IA pudieran influir en elecciones importantes. En enero, fundó TrueMedia.org, una organización sin fines de lucro, con la esperanza de combatir esa amenaza.
El martes, la organización presentó herramientas gratuitas para identificar la desinformación digital, con la intención de ponerlas en manos de periodistas, verificadores de datos y cualquiera que intente averiguar qué es real en internet.
Las herramientas, disponibles en el sitio web TrueMedia.org para cualquier persona autorizada por la organización, están diseñadas con el fin de detectar imágenes, audio y video falsos y manipulados. Revisan enlaces a archivos multimedia y determinan rápidamente si son confiables.
Etzioni considera que estas herramientas representan una mejora respecto a la defensa improvisada que se utiliza en la actualidad para detectar contenidos engañosos o falsos de la IA. Sin embargo, en un año en el que miles de millones de personas de todo el mundo votarán en elecciones, Etzioni sigue dibujando un panorama sombrío de lo que nos espera.
“Estoy aterrorizado”, afirmó. “Es muy probable que veamos un tsunami de desinformación”.
Tan solo en los primeros meses del año, las tecnologías de IA ayudaron a crear llamadas de voz falsas del presidente Joe Biden, imágenes y anuncios de audio falsos de Taylor Swift, así como toda una entrevista falsa que parecía mostrar a un funcionario ucraniano atribuyéndose un atentado terrorista en Moscú. Detectar este tipo de desinformación ya es difícil, y la industria tecnológica sigue lanzando sistemas de IA cada vez más potentes que generarán ultrafalsos cada vez más convincentes y dificultarán aún más su detección.
Muchos investigadores de inteligencia artificial advierten que la amenaza está cobrando fuerza. El mes pasado, más de mil personas —entre ellas Etzioni y otros destacados investigadores de IA— firmaron una carta abierta en la que pedían leyes que hicieran responsables a los desarrolladores y distribuidores de servicios audiovisuales de IA si su tecnología se utilizaba fácilmente para crear ultrafalsos perjudiciales.
En un evento organizado por la Universidad de Columbia el 28 de marzo, Hillary Clinton, la exsecretaria de Estado, entrevistó a Eric Schmidt, el ex director ejecutivo de Google, quien advirtió que los videos, incluso los falsos, podrían “influir en el comportamiento electoral, el comportamiento humano, los estados de ánimo, todo”.
“No creo que estemos preparados”, comentó Schmidt. “Este problema va a empeorar mucho en los próximos años. Es posible que empeore o no para noviembre, pero es seguro que empeorará en el próximo ciclo”.
La industria tecnológica es muy consciente de la amenaza. Incluso mientras las empresas se apresuran a hacer avanzar los sistemas de IA generativa, se esfuerzan por limitar el daño que pueden causar estas tecnologías. Anthropic, Google, Meta y OpenAI han anunciado planes para limitar o etiquetar los usos relacionados con las elecciones de sus servicios de inteligencia artificial. En febrero, veinte empresas tecnológicas —entre ellas Amazon, Microsoft, TikTok y X, antes conocida como Twitter— firmaron un compromiso voluntario para evitar que los contenidos engañosos de IA perturben la votación.
Esto podría representar un reto. Las empresas suelen publicar sus tecnologías como software de código abierto, lo que significa que cualquiera es libre de utilizarlas y modificarlas sin restricciones. Los expertos afirman que la tecnología utilizada para crear ultrafalsos —fruto de la enorme inversión de muchas de las más grandes empresas del mundo— siempre superará la tecnología diseñada para detectar la desinformación.
La semana pasada, durante una entrevista con The New York Times, Etzioni demostró lo fácil que es crear un ultrafalso. Utilizando un servicio de una organización hermana sin fines de lucro, CivAI, que se basa en herramientas de IA fácilmente disponibles en internet para demostrar los peligros de estas tecnologías, creó al instante fotos de sí mismo en prisión, un lugar en el que nunca ha estado.
“Cuando te ves a ti mismo falsificado, da mucho más miedo”, señaló.
Más tarde, generó un ultrafalso de sí mismo en la cama de un hospital, el tipo de imagen que cree que podría cambiar las elecciones si se aplicara a Biden o al expresidente Donald Trump justo antes de las votaciones.
Las herramientas de TrueMedia están diseñadas para detectar este tipo de falsificaciones. Más de una decena de empresas ofrecen tecnologías similares.
No obstante, aunque Etzioni destacó la eficacia de la herramienta de su grupo, dijo que ningún detector era perfecto porque se basaba en probabilidades. Los servicios de detección de falsificaciones han sido engañados por imágenes de robots que se besan y neandertales gigantes y las han declarado como fotografías reales, lo que hace temer que estas herramientas puedan dañar aún más la confianza de la sociedad en los hechos y las pruebas.
Cuando Etzioni introdujo en las herramientas de TrueMedia un ultrafalso conocido de Trump sentado en un banco con un grupo de jóvenes negros, quedó calificado como “altamente sospechoso”, su máximo nivel de certidumbre. Cuando subió otro ultrafalso conocido de Trump con sangre en los dedos, la herramienta lo calificó de “incierto”, no sabía con seguridad si era real o falso.
“Ni utilizando las mejores herramientas puedes estar seguro”, agregó.
Desde que Etzioni creó TrueMedia.org, OpenAI ha presentado dos nuevas tecnologías que prometen dificultar aún más su trabajo. Una puede recrear la voz de una persona a partir de una grabación de quince segundos. Otra puede generar videos de movimiento completo que parecen sacados de una película de Hollywood. OpenAI aún no comparte estas herramientas con el público, ya que trabaja para comprender los posibles peligros.
(El Times demandó a OpenAI y a su socio, Microsoft, por infracción de derechos de autor en relación con sistemas de inteligencia artificial que generan texto).
En última instancia, según Etzioni, la lucha contra el problema requerirá una cooperación amplia entre los reguladores gubernamentales, las empresas que crean tecnologías de IA y los gigantes tecnológicos que controlan los navegadores web y las redes sociales donde se difunde la desinformación. Sin embargo, dijo que la probabilidad de que esto ocurra antes de las elecciones de otoño es escasa.
“Estamos intentando ofrecer a la gente la mejor evaluación técnica de lo que tienen ante ellos”, dijo. “Sin embargo, siguen siendo ellos quienes tienen que decidir si es real”.
Cade Metz cubre inteligencia artificial, coches autónomos, robótica, realidad virtual y otras áreas emergentes de la tecnología. Más de Cade Metz
Tiffany Hsu cubre la desinformación, sus orígenes, movimientos y consecuencias. Es periodista desde hace más de dos décadas. Más de Tiffany Hsu