Meta elimina campañas de desinformación generadas por IA en China e Israel

La empresa también detectó redes que generaban contenido político engañoso en Irán, Rusia y otros países

Por

Bloomberg — Meta Platforms Inc. (META) eliminó cientos de cuentas de Facebook asociadas a campañas de influencia encubiertas de China, Israel, Irán, Rusia y otros países, algunas de las cuales utilizaban herramientas de inteligencia artificial (IA) para generar desinformación, según el informe trimestral de amenazas de la empresa.

Meta, la empresa matriz de Facebook, Instagram y WhatsApp, ha visto cómo los actores de amenazas recurrían a la IA para producir imágenes, vídeos y textos falsos en un esfuerzo por influir en los usuarios de sus sitios. Pero el uso de IA generativa no afectó a la capacidad de la compañía para interrumpir esas redes, dijo Meta este miércoles en el informe.

Lea también: Filtración de documentos de Google sobre su algoritmo: esto se sabe

Entre las campañas de desinformación, la empresa descubrió una red engañosa de China que compartía imágenes de carteles generados por IA de un movimiento pro-Sikh ficticio, y una red con sede en Israel que publicaba comentarios generados por IA alabando al Ejército israelí bajo las páginas de organizaciones de medios de comunicación y figuras públicas. La empresa declaró que eliminó muchas de esas redes antes de que pudieran crear audiencia entre comunidades auténticas.

“En estos momentos no estamos viendo que la inteligencia artificial se utilice de forma muy sofisticada”, declaró el martes David Agranovich, director de Políticas de Disrupción de Amenazas de Meta, durante una rueda de prensa. Tácticas como la creación de fotos de perfil generadas por IA o el uso de la inteligencia artificial para producir grandes volúmenes de contenido spam, no han sido eficaces hasta ahora, dijo.

“Pero sabemos que estas redes son intrínsecamente conflictivas”, dijo Agranovich. “Seguirán evolucionando sus tácticas a medida que cambie su tecnología”.

Empresas de redes sociales como Facebook, TikTok de ByteDance Ltd. y X de Elon Musk han luchado con la afluencia de contenido falso y engañoso generado por IA en sus sitios. Solo este año, circularon por las redes sociales audios manipulados del presidente estadounidense, Joe Biden, e imágenes falsas del conflicto entre Israel y Hamás, que recopilaron millones de visitas.

Nick Clegg, presidente de Asuntos Globales de Meta, ha insistido en la necesidad de detectar y etiquetar los contenidos generados por IA, especialmente cuando la empresa se prepara para el ciclo electoral de 2024. Este año se celebrarán elecciones en más de 30 países, entre ellos muchos en los que se utilizan las aplicaciones de la empresa, como Estados Unidos, India y Brasil.

Vea además: X, de Musk, es la mayor fuente de desinformación rusa, según la UE

Clegg ha dicho que crear un estándar industrial en torno a las marcas de agua es “la tarea más urgente que enfrentamos hoy”. Meta ha estado trabajando en la capacidad de detectar y etiquetar imágenes creadas por herramientas de empresas de inteligencia artificial como Google y OpenAI de Alphabet Inc. La empresa ya ha comenzado a agregar marcadores visibles a algunas imágenes, así como marcadores invisibles e información de identificación en archivos de imágenes.

Meta recientemente actualizó sus políticas para etiquetar los contenidos engañosos de su sitio generados por IA, en lugar de eliminarlos. La empresa también exige a los anunciantes que informen cuando utilizan IA para crear anuncios de Facebook o Instagram relacionados con temas sociales, elecciones o política, pero la empresa no comprueba los hechos de los anuncios de los políticos.

Lea más en Bloomberg.com