Bloomberg — YouTube, la plataforma de videos propiedad de Google, de Alphabet Inc. (GOOGL), pronto exigirá a los creadores de videos que revelen cuándo han subido contenido manipulado o sintético que parezca realista, incluidos los videos creados con herramientas de inteligencia artificial.
La actualización de la política, que entrará en vigor en algún momento del nuevo año, podría aplicarse a los videos que utilicen herramientas de IA generativa para representar de forma realista hechos que nunca ocurrieron, o que muestren a personas diciendo o haciendo algo que en realidad no hicieron. “Esto es especialmente importante en los casos en que el contenido trata temas delicados, como elecciones, conflictos en curso y crisis de salud pública, o funcionarios públicos”, dijeron Jennifer Flannery O’Connor y Emily Moxley, vicepresidentas de gestión de productos de YouTube, en una entrada del blog de la empresa el martes. Los creadores que decidan repetidamente no revelar cuándo han publicado contenido sintético pueden ser objeto de retirada de contenido, suspensión del programa que les permite obtener ingresos por publicidad u otras sanciones, dijo la empresa.
Cuando el contenido se manipula o genera digitalmente, los creadores deben seleccionar una opción para mostrar la nueva etiqueta de advertencia de YouTube en el panel de descripción del video. Para determinados tipos de contenido sobre temas delicados (como elecciones, conflictos en curso y crisis de salud pública) YouTube mostrará una etiqueta de forma más destacada, en el propio reproductor de video. La empresa dijo que trabajaría con los creadores antes de que se aplique la política para asegurarse de que comprenden los nuevos requisitos, y está desarrollando sus propias herramientas para detectar cuándo se infringen las normas. YouTube también se compromete a etiquetar automáticamente los contenidos generados mediante sus propias herramientas de IA para creadores.
Google (que fabrica herramientas que pueden crear contenido generativo de IA y posee plataformas que pueden distribuir dicho contenido por todas partes) se enfrenta a nuevas presiones para desplegar la tecnología de forma responsable. El martes, Kent Walker, presidente de asuntos jurídicos de la empresa, publicó una entrada en el blog de la empresa en la que exponía la “Agenda de Oportunidades de la IA” de Google, un libro blanco con recomendaciones políticas destinadas a ayudar a los gobiernos de todo el mundo a reflexionar sobre el desarrollo de la inteligencia artificial.
“Responsabilidad y oportunidad son dos caras de la misma moneda”, dijo Walker en una entrevista. “Es importante que, aunque nos centremos en el lado de la responsabilidad de la narrativa, no perdamos la emoción ni el optimismo en torno a lo que esta tecnología podrá hacer por las personas de todo el mundo”.
Vigilar la desinformación
Al igual que otros servicios de medios generados por los usuarios, Google y YouTube se han visto sometidos a presiones para mitigar la difusión de información errónea a través de sus plataformas, incluidas mentiras sobre elecciones y crisis mundiales como la pandemia del Covid-19. Google ya ha empezado a hacer frente a la preocupación de que la IA generativa pueda crear una nueva ola de desinformación, anunciando en septiembre que exigiría divulgaciones “destacadas” para los anuncios electorales generados por IA. Se dijo a los anunciantes que debían incluir expresiones como “Este audio se ha generado por UNA computadora” o “Esta imagen no representa hechos reales” en los anuncios electorales alterados de las plataformas de Google. La empresa también dijo que las directrices comunitarias de YouTube, que prohíben el contenido manipulado digitalmente que pueda suponer un riesgo grave de daño público, ya se aplican a todo el contenido de video subido a la plataforma.
Además de las nuevas declaraciones sobre IA generativa que YouTube tiene previsto añadir a la plataforma de video, la empresa ha declarado que, con el tiempo, permitirá a los usuarios solicitar la eliminación de contenidos sintéticos o generados por IA que simulen a una persona identificable, mediante su proceso de solicitud de privacidad. Se ofrecerá una opción similar para que los socios musicales soliciten la eliminación de contenido musical generado por IA que imite la voz de un artista cantando o rapeando, dijo YouTube.
La empresa dijo que no todo el contenido se eliminará automáticamente una vez que se presente una solicitud, sino que “tendrá en cuenta diversos factores al evaluar estas solicitudes”. Si la solicitud de retirada hace referencia a un video que incluye parodias o sátiras, por ejemplo, o si no se puede identificar de forma inequívoca a la persona que realiza la solicitud, YouTube podría decidir dejar el contenido en su plataforma.
Lea más en Bloomberg.com