En la era de la IA, tampoco le creas a tus ojos

Por

Bloomberg Opinión — Una foto falsa de una explosión cerca del Pentágono se hizo viral en Twitter el lunes, lo que hizo que las acciones cayeran. El incidente confirmó lo que muchos han dicho durante meses: La desinformación va camino de sobrealimentarse a medida que las nuevas herramientas de IA para inventar fotos sean más fáciles de usar.

Arreglar este problema con tecnología será un juego de nunca acabar. Desde luego que merece la pena intentar rastrear la procedencia de las imágenes, como lo está haciendo Adobe Inc. (ADBE) con su Iniciativa de Autenticidad de Contenidos. Pero como dice el refrán, una mentira puede dar la vuelta al mundo y volver mientras la verdad sigue atándose las botas. En un mundo en el que se generan más contenidos artificiales que nunca, todos tendremos que ser más escépticos sobre lo que vemos en Internet, especialmente en vísperas de las elecciones presidenciales estadounidenses del año que viene.

La “foto” del Pentágono se volvió especialmente problemática debido al pobre sistema de verificación de Twitter. Elon Musk renovó las marcas azules del sitio para que dejaran de estar monopolizadas por “élites” como la prensa y los famosos, y para que más gente pudiera verificarse y tener una voz más fuerte por una tarifa. Por desgracia, su sistema se ha convertido en blanco de imitadores, como la cuenta de pago BloombergFeed, que fue una de las varias cuentas verificadas que publicaron la foto del Pentágono antes de ser suspendida el lunes por la mañana.

BloombergFeed y una cuenta de Twitter llamada Walter Bloomberg, que también publicó la imagen, no están afiliadas a Bloomberg News, según un portavoz de Bloomberg News.

Aunque Twitter ha creado un entorno perfecto para que prosperen las fotos falsas hechas con IA, el problema va en última instancia más allá de la plataforma. La foto del Pentágono se originó en Facebook y podemos esperar que más fotos como ésta circulen también por otras redes sociales, como WhatsApp, donde la información falsa sobre las elecciones en Brasil del año pasado se hizo viral a través de la función de reenvío de la aplicación.

TikTok también podría volverse más susceptible a los videos falsos muy pronto. Los primeros ejemplos de vídeos creados con herramientas de IA siguen teniendo fallos, pero es probable que se vuelvan más realistas en los próximos uno o dos años, con millones de dólares de inversión de capital riesgo en empresas emergentes que crean tecnología de deepfakes (con fines legítimos, por supuesto).

Por ejemplo, la startup neoyorquina Runway acaba de lanzar una herramienta que permite a cualquiera transformar un video en otro tipo utilizando palabras e imágenes como instrucciones, mientras que Gan.ai, con sede en San Francisco, ha recaudado dinero de luminarias del capital riesgo como Sequoia Capital para vender software de “personalización de vídeo” a las marcas.

Aunque puede que los vídeos falsos realistas estén todavía a uno o dos años vista, la generación de imágenes es cada vez más fácil. Adobe acaba de actualizar su software Photoshop con herramientas de IA generativa que permiten a los usuarios del omnipresente software de edición de imágenes manipular fotos de formas mucho más drásticas. Y hay varias buenas herramientas de generación de imágenes disponibles como aplicaciones móviles, lo que facilita el acceso a ellas desde cualquier lugar. Aunque herramientas como las de Adobe, Midjourney Inc. o DALL-E 2 de OpenAI no crearán imágenes de famosos, políticos, violencia y guerra, sí lo harán alternativas de código abierto como Stable Diffusion.

Cuando el año pasado pregunté al cofundador de Stable Diffusion cómo debería afrontar el mundo el aumento de las fotos falsas, me dijo que todos tendríamos que adaptarnos. “La gente será consciente del hecho de que cualquiera puede crear esa imagen en su teléfono, en un segundo”, dijo Emad Mostaque. “La gente dirá: ‘Probablemente sea creada’”.

¿Recuerdas la jerga de Internet, “fotos o no sucedió”? Muy pronto, las fotos no serán tan útiles como prueba, y nos encontraremos cuestionando también las imágenes legítimas. Los usuarios de Twitter tuvieron una muestra del potencial de la IA para acelerar la desinformación en marzo, cuando se hizo viral una foto falsa del Papa Francisco con una chaqueta. Como predijimos entonces, el potencial de falsificación ha dado un giro más oscuro.

La IA generativa y las dudosas marcas azules son una mezcla perfecta para que la desinformación prospere en Twitter, y mientras Meta Platforms Inc. (META) se prepara para recortar más puestos de trabajo en las próximas semanas, al personal le preocupa que sus equipos de moderación de contenidos también se vean reducidos, según un informe publicado el martes en el Washington Post, lo que significa que habrá menos gente para gestionar el problema.

El año pasado por estas fechas, plataformas como Twitter y Facebook habían mejorado su capacidad para acabar con la desinformación. Hoy las cosas parecen diferentes. Las empresas tecnológicas tienen que hacer un mejor trabajo para impedir que se difundan las noticias falsas, pero también tendremos que acercarnos a ellas con mayores dosis de escepticismo. En un momento en que ver ya no es creer, debemos armarnos con ojos más perspicaces y un poco más de duda.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.