Bloomberg — OpenAI eliminó una red de cuentas iraníes que utilizaban su chatbot ChatGPT para intentar llevar a cabo una campaña de influencia extranjera dirigida a las elecciones presidenciales estadounidenses mediante la generación de artículos de largo formato y comentarios en las redes sociales, según informó la empresa este viernes.
Las cuentas crearon contenidos que parecían proceder de usuarios de tendencia liberal y conservadora, incluidos mensajes que sugerían que el expresidente Donald Trump estaba siendo censurado en las redes sociales y se disponía a declararse rey de EE.UU. Otro describía la elección de Tim Walz como compañero de fórmula de la vicepresidenta Kamala Harris como una “elección calculada para la unidad”.
Lea también: ¿Qué significa “Bad Gateway”, el error que apareció en aparente caída de ChatGPT?
La campaña de influencia, que también incluyó posts sobre la guerra de Israel contra Gaza, los Juegos Olímpicos de París y temas de moda y belleza, no parece haber recibido una participación significativa de la audiencia, dijo Ben Nimmo, investigador principal del equipo de Inteligencia e Investigaciones de OpenAI, en una rueda de prensa este viernes. “La operación intentó jugar a dos bandas, pero no parece que consiguiera el compromiso de ninguna de ellas”, dijo.
La operación iraní es el último intento sospechoso en las redes sociales de utilizar la inteligencia artificial que no ha tenido mucho éxito, un posible indicio de que los agentes extranjeros todavía están buscando la forma de sacar provecho de la nueva generación de herramientas de inteligencia artificial que pueden producir rápidamente textos e imágenes convincentes por un coste mínimo o nulo.
Microsoft Corp. dijo en junio que había detectado cuentas prorrusas que intentaban amplificar un vídeo inventado que mostraba violencia en los Juegos Olímpicos. Y Meta Platforms Inc. dijo a principios de este año que había eliminado cientos de cuentas de Facebook asociadas a operaciones de influencia de Irán, China y Rusia, algunas de las cuales se basaban en herramientas de IA para difundir desinformación.
OpenAI no especificó el viernes el número exacto de cuentas que eliminó. La startup dijo que también identificó una docena de cuentas en X, antes Twitter, y una en Instagram implicadas en el esfuerzo. Instagram eliminó la cuenta en cuestión, que generalmente se centraba en Escocia y publicaba sobre comida. X no respondió inmediatamente a una solicitud de comentarios.
Vea además: ¿Podrá ChatGPT convertirse en un analista económico? La apuesta de las financieras
La revelación se produce después de que presuntos piratas informáticos iraníes comprometieran la campaña política de Trump, desencadenando una investigación federal sobre la posible intromisión extranjera antes de las elecciones estadounidenses de noviembre. La comunidad de inteligencia estadounidense ha advertido constantemente sobre los gobiernos extranjeros que intentan moldear las opiniones de los estadounidenses. La Oficina del Director de Inteligencia Nacional afirmó en julio que Irán, Rusia y China estaban reclutando a personas en Estados Unidos para intentar difundir su propaganda.
OpenAI afirmó en mayo que redes de Rusia, China, Irán e Israel habían intentado utilizar los productos de IA de la empresa para impulsar sus esfuerzos propagandísticos. En aquel momento, OpenAI dijo que las redes que había desbaratado habían utilizado la IA para generar texto e imágenes en un volumen mayor del que habrían podido generar los creadores humanos, ayudando a que el contenido pareciera más auténtico. Sin embargo, las campañas seguían sin generar un compromiso significativamente mayor, según la startup.
Lea más en Bloomberg.com