Google exigirá que los anuncios electorales generados por IA sean identificados

La actualización mejorará las medidas de transparencia de Google para los anuncios electorales, dijo la compañía

El logotipo de Google en la página de inicio de la compañía, dispuesto en un ordenador de sobremesa en Sydney, Australia
Por Davey Alba
06 de septiembre, 2023 | 09:44 PM

Bloomberg — Google, de Alphabet Inc. (GOOGL), exigirá en breve que todos los anunciantes electorales informen de si sus mensajes han sido alterados o creados por herramientas de inteligencia artificial.

La actualización de la política, que se aplicará a partir de mediados de noviembre, obliga a los anunciantes electorales de todas las plataformas de Google a alertar a los espectadores cuando sus anuncios contengan imágenes, vídeo o audio procedentes de IA generativa, es decir, software capaz de crear o editar contenido con una simple instrucción.

VER +
Presidenciales en Ecuador, Guatemala y Argentina: cómo sigue la agenda política latina

Los anunciantes deben incluir un texto destacado como “Este audio ha sido generado por ordenador” o “Esta imagen no representa hechos reales” en los anuncios electorales modificados de las plataformas de Google, según ha informado la empresa en un aviso a los anunciantes. La política no se aplica a correcciones menores, como el cambio de tamaño o el brillo de las imágenes.

La actualización mejorará las medidas de transparencia de Google para los anuncios electorales, dijo la compañía, especialmente dada la creciente prevalencia de herramientas de IA -incluida la de Google- que pueden producir contenido sintético. “Ayudará a apoyar aún más la publicidad política responsable y proporcionará a los votantes la información que necesitan para tomar decisiones informadas”, dijo Michael Aciman, portavoz de Google.

PUBLICIDAD

La nueva política de Google no se aplica a los vídeos subidos a YouTube que no sean publicidad de pago, incluso si son subidos por campañas políticas, dijo la compañía. Meta Platforms Inc. (META), propietaria de Instagram y Facebook, y X, antes conocida como Twitter, no tienen normas específicas de divulgación para los anuncios generados por IA. Meta dijo que estaba recibiendo información de sus socios de verificación de hechos sobre la desinformación generada por IA y revisando sus políticas.

Al igual que otros servicios de publicidad digital, Google ha estado bajo presión para abordar la desinformación a través de sus plataformas, incluidas las afirmaciones falsas sobre las elecciones y la votación que podrían socavar la confianza y la participación en el proceso democrático. En 2018, Google exigió a los anunciantes electorales que pasaran por un proceso de verificación de identidad, y un año después añadió restricciones de segmentación para los anuncios electorales y amplió su política para incluir anuncios sobre candidatos y titulares de cargos a nivel estatal, partidos políticos e iniciativas electorales.

La empresa también promociona su centro de transparencia de anuncios, donde el público puede consultar quién compró anuncios electorales, cuánto gastaron y cuántas impresiones recibieron los anuncios en las plataformas de la empresa, que incluyen su motor de búsqueda y la plataforma de vídeo YouTube.

PUBLICIDAD
VER +
La inteligencia artificial está moviendo el mundo de las acciones y los ETF

Aun así, el problema de la desinformación ha persistido, especialmente en YouTube. En 2020, aunque aplicó una política separada para los anuncios electorales en la plataforma, YouTube dijo que los vídeos habituales que difundían falsas afirmaciones de fraude electoral generalizado no violaban sus políticas. Los vídeos fueron vistos más de 137 millones de veces la semana del 3 de noviembre. YouTube no cambió sus normas hasta que venció el plazo del denominado puerto seguro, el 8 de diciembre de 2020, fecha en la que se suponía que debían haberse completado todas las impugnaciones electorales a nivel estatal, como los recuentos y las auditorías.

Y en junio de este año, YouTube anunció que dejaría de eliminar contenidos que avanzan afirmaciones falsas de fraude electoral generalizado en 2020 y en otras elecciones presidenciales estadounidenses pasadas.

Google afirmó que las directrices de la comunidad de YouTube, que prohíben los contenidos manipulados digitalmente que puedan suponer un grave riesgo de daño público, se aplican a todos los contenidos de vídeo subidos a la plataforma. Y la compañía dijo que había hecho cumplir su política de anuncios políticos en años anteriores, bloqueando o eliminando 5,2 millones de anuncios por violar sus políticas, incluidos 142 millones por violar las políticas de tergiversación de Google en 2022.

Lea más en Bloomberg.com