OpenAI limita el uso de sus herramientas a las redes de influencia de Rusia y China

La startup publicó un informe sobre los malos actores que hacen uso de la IA para engañar a la gente de forma más eficaz

OpenAI enumeró las formas en que las redes de influencia han utilizado sus herramientas para engañar a la gente de forma más eficaz, incluido el uso de la IA para generar texto e imágenes en mayor volumen y con menos errores lingüísticos de lo que habría sido posible sólo con humanos.
Por Shirin Ghaffary
30 de mayo, 2024 | 03:02 PM

Bloomberg — OpenAI dijo que ha cortado cinco operaciones encubiertas de influencia en los últimos tres meses, incluyendo redes en Rusia, China, Irán e Israel que accedieron a los productos de inteligencia artificial del fabricante de ChatGPT para tratar de manipular la opinión pública o dar forma a los resultados políticos mientras ocultaban su verdadera identidad.

Lea también: OpenAI crea comité evaluador de modelos de inteligencia artificial tras disolver su equipo de seguridad

El nuevo informe del fabricante de ChatGPT llega en un momento de preocupación generalizada por el papel de la IA en las elecciones mundiales previstas para este año. En sus conclusiones, OpenAI enumeró las formas en que las redes de influencia han utilizado sus herramientas para engañar a la gente de forma más eficaz, incluido el uso de la IA para generar texto e imágenes en mayor volumen y con menos errores lingüísticos de lo que habría sido posible sólo con humanos. Pero la empresa dijo que, en última instancia, en su evaluación, estas campañas no consiguieron aumentar significativamente su alcance como resultado del uso de los servicios de OpenAI.

"Durante el último año y medio ha habido muchas preguntas sobre lo que podría ocurrir si las operaciones de influencia utilizan IA generativa", dijo Ben Nimmo, investigador principal del equipo de Inteligencia e Investigaciones de OpenAI, en una rueda de prensa el miércoles. "Con este informe, realmente queremos empezar a rellenar algunos de los espacios en blanco".

PUBLICIDAD

La empresa dijo que definió sus objetivos como “operaciones de influencia” encubiertas que son “intentos engañosos de manipular la opinión pública o influir en los resultados políticos sin revelar la verdadera identidad o las intenciones de los actores que están detrás”. Estos grupos son diferentes de las redes de desinformación, dijo Nimmo, ya que a menudo pueden promover información objetivamente correcta, pero de forma engañosa.

Le recomendamos: La IA es una oportunidad para LatAm, “el riesgo es no tener la mano de obra” para aprovecharla

Aunque las redes de propaganda utilizan desde hace tiempo las plataformas de los medios sociales, su uso de herramientas de IA generativa es relativamente nuevo. OpenAI afirmó que en todas las operaciones que identificó se utilizó material generado por IA junto a formatos más tradicionales, como textos escritos manualmente o memes en los principales sitios de medios sociales. Además de utilizar la IA para generar imágenes, textos y biografías en las redes sociales, algunas redes de influencia también recurrieron a los productos de OpenAI para aumentar su productividad resumiendo artículos o depurando código para bots.

PUBLICIDAD

Las cinco redes identificadas por OpenAI incluían grupos como el pro-ruso “Doppelganger”, la red pro-china “Spamouflage” y una operación iraní conocida como la Unión Internacional de Medios Virtuales, o IUVM. OpenAI también señaló redes previamente desconocidas que, según la startup, identificó por primera vez procedentes de Rusia e Israel.

El nuevo grupo ruso, al que OpenAI apodó "Mala gramática", utilizó los modelos de inteligencia artificial de la startup, así como la aplicación de mensajería Telegram, para establecer una red de envío de contenidos, según la empresa. En primer lugar, el grupo encubierto utilizó los modelos de OpenAI para depurar un código capaz de automatizar la publicación de mensajes en Telegram y, a continuación, generó comentarios en ruso y en inglés para responder a esos mensajes de Telegram utilizando docenas de cuentas. Una cuenta citada por OpenAI publicó comentarios argumentando que Estados Unidos no debería apoyar a Ucrania. "Estoy harto y cansado de que estos tontos con daños cerebrales jueguen mientras los estadounidenses sufren", se leía. "Washington necesita aclarar sus prioridades o sentirán toda la fuerza de Texas".

OpenAI identificó parte del contenido generado por la IA al observar que los comentarios incluían mensajes de error comunes de la IA como: “Como modelo lingüístico de la IA, estoy aquí para ayudar”. La empresa también dijo que está utilizando sus propias herramientas de IA para identificar y defenderse de este tipo de operaciones de influencia.

Le puede interesar: De Excel a IA: así está revolucionando la inteligencia artificial las M&As

En la mayoría de los casos, los mensajes de las redes no parecían tener gran alcance, o los usuarios humanos identificaban el contenido publicado como generado por la IA. A pesar de su limitado alcance, “no es momento para la autocomplacencia”, dijo Nimmo. “La historia demuestra que las operaciones de influencia que llevan años sin llegar a ninguna parte pueden irrumpir de repente si nadie las busca”.

Nimmo también reconoció que es probable que haya grupos que utilicen herramientas de IA de los que la empresa no tenga conocimiento. “No sé cuántas operaciones hay todavía por ahí”, dijo Nimmo. “Pero sé que hay mucha gente buscándolas, incluido nuestro equipo”.

Otras empresas como Meta Platforms Inc. (META) han hecho revelaciones similares sobre operaciones de influencia en el pasado. OpenAI dijo que está compartiendo indicadores de amenazas con sus homólogos de la industria, y parte del propósito de su informe es ayudar a otros a realizar este tipo de trabajo de detección. La empresa dijo que planea compartir más informes en el futuro.

PUBLICIDAD

--Con la colaboración de Jeff Stone.

Lea más en Bloomberg.com