Bloomberg — El presente año será un gran año para los sistemas de gobierno electorales, en el que miles de millones de habitantes, es decir, más del 40% de la población del planeta, podrán votar en unos comicios.
Sin embargo, a unos 5 meses del año 2024, algunos miembros del gobierno se están preguntando en voz baja por qué parece que el amenazante peligro de la inteligencia artificial no se ha materializado.
En Indonesia y Pakistán, donde los votantes han asistido a las urnas, hay pocas pruebas de que los deepfakes (falsificaciones de audio o imagen) virales hayan sesgado el resultado de las elecciones, según se indica en un reciente artículo de Politico, en el que se cita a «funcionarios de seguridad nacional, ejecutivos de empresas de tecnología y grupos de vigilancia externos”.
La inteligencia artificial, decían, no ha causado el «impacto generalizado» que era de esperar.
Se trata de una visión terriblemente miope. ¿Por qué? La inteligencia artificial ya puede estar interfiriendo en las elecciones y no nos damos cuenta.
Y el problema es que los funcionarios buscan una versión maquiavélica del Papa Balenciaga. ¿Recuerdan las imágenes generadas por IA del Papa Francisco con una chaqueta puff (hinchada) que se hicieron virales el año pasado?
Eso es lo que ahora muchos prevén de las herramientas de inteligencia artificial generativa, que permiten crear textos, imágenes y videos de apariencia humana en masa, lo que facilita su detección, del mismo modo que las anteriores campañas de persuasión que respaldaron a Donald Trump desde Macedonia o propagaron contenidos de carácter político divisorio en X (antes Twitter) y Facebook desde Rusia.
El denominado astroturfing (técnica de marketing y relaciones públicas basada en proyectar una imagen falsa de naturalidad y espontaneidad con el fin de ganar apoyo y viralidad) era fácilmente identificable cuando un grupo de bots repetía lo mismo, miles de veces.
No obstante, es más complicado sorprender a alguien que dice lo mismo, de manera levemente distinta, miles de veces.
En resumen, eso es lo que hace que la desinformación potenciada por la inteligencia artificial resulte mucho más complicada de descubrir, y es la causa de que las compañías de tecnología necesiten modificar su planteamiento y pasar de la “viralidad a la variedad”, según Josh Lawson, que fue responsable de riesgo electoral en Meta Platforms Inc. y en la actualidad presta asesoría a compañías de redes sociales en calidad de director del Aspen Isntitute, un think tank (grupo de expertos).
No olvides, dice, el poder sutil de las palabras. Gran parte del discurso público sobre la IA ha girado en torno a imágenes y deepfakes, “cuando pudimos ver que la mayor parte de las campañas de persuasión podrían basarse en texto. Así es como realmente puedes escalar una operación sin que te atrapen”.
WhatsApp de Meta lo hace posible gracias a su función “Canales”, que puede transmitir a miles.
Podría, por ejemplo, utilizar un modelo de lenguaje de código abierto para generar y enviar legiones de publicaciones de texto diferentes a hablantes de árabe en Michigan, o enviar mensajes a las personas diciéndoles que su colegio electoral local en una escuela está inundado y que la votación tomará seis horas, Lawson añade. “Ahora algo así como una operación en lengua árabe está al alcance de personas tan poco sofisticadas como los Proud Boys”, afirma.
El otro problema es que las herramientas de inteligencia artificial ahora se utilizan ampliamente: más de la mitad de los estadounidenses y una cuarta parte de los británicos las han probado. Eso significa que la gente común, intencionalmente o no, también puede crear y compartir desinformación.
En marzo, por ejemplo, los fanáticos de Donald Trump publicaron fotos falsas de él, generadas por inteligencia artificial, rodeado de seguidores negros, para presentarlo como un héroe de la comunidad negra.
“Es gente común y corriente creando contenido para fanáticos”, dice Renee DiResta, investigadora del Observatorio de Internet de Stanford que se especializa en interferencia electoral.
“¿Quieren ser engañosos? ¿Quién sabe?” Lo que importa es que con el costo de distribución ya en cero, el costo de creación también ha bajado, para todos. Lo que hace que el trabajo de Meta sea especialmente desafiante es que, para abordar esto, no puede limitarse a limitar que ciertas imágenes obtengan muchos clics y me gusta. El spam de IA no necesita participación para ser efectivo. Sólo falta inundar la zona.
Meta está tratando de abordar el problema aplicando etiquetas “Hecho con IA”, este mes, a videos, imágenes y audio en Facebook e Instagram, un enfoque que podría volverse contraproducente si la gente comienza a asumir que todo lo que no tiene una etiqueta es real.
Otro enfoque sería que Meta se centrara en una plataforma donde prevalece el texto: WhatsApp.
Ya en 2018, se difundió una avalancha de desinformación a través de la plataforma de mensajería en Brasil dirigida a Fernando Haddad, del Partido de los Trabajadores. Se informó que los partidarios de Jair Bolsonaro, quien ganó la presidencia, financiaron los ataques masivos.
Meta podría combatir mejor una repetición de eso, que la IA usaría esteroides, si alineara sus políticas de WhatsApp con las de Instagram y Facebook, específicamente prohibiendo contenido que interfiera con el acto de votar. Las reglas de WhatsApp sólo prohíben vagamente el “contenido que engaña intencionalmente” y la “actividad ilegal”.
Un portavoz de Meta dijo que esto significa que la empresa “aplicaría la supresión de votantes o elecciones”.
Pero políticas de contenido más claras le darían a Meta más autoridad para abordar el spam de IA en los canales de WhatsApp. Se necesita eso “para una aplicación proactiva”, dice Lawson. Si la empresa no pensara que ese es el caso, no tendría políticas más específicas contra la interferencia de los votantes para Facebook e Instagram.
Las pruebas irrefutables son raras con las herramientas de IA gracias a sus efectos más difusos y matizados.
Deberíamos prepararnos para recibir más ruido que señales a medida que el contenido sintético llegue a Internet. Eso significa que las empresas tecnológicas y los funcionarios no deberían sentirse complacientes ante la falta de un “impacto masivo” de la IA en las elecciones. Todo lo contrario.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.
Lea más en Bloomberg.com