Apps de IA para desnudar mujeres en fotos se están volviendo cada vez más utilizadas

Las aplicaciones son parte de una preocupante tendencia de desarrollo y distribución de pornografía no consensuada

Por

Bloomberg — Las aplicaciones y sitios web que utilizan inteligencia artificial para desnudar a las mujeres en fotografías están ganando popularidad, según investigadores.

Sólo en septiembre, 24 millones de personas visitaron sitios web de desnudez, según la empresa de análisis de redes sociales Graphika.

Según Graphika, muchos de estos servicios de desnudez o “nudificación” utilizan redes sociales populares para su marketing. Por ejemplo, desde principios de este año, el número de enlaces que anuncian aplicaciones para desnudarse aumentó más de un 2.400% en las redes sociales, incluidas X y Reddit, dijeron los investigadores.

Los servicios utilizan IA para recrear una imagen de modo que la persona esté desnuda. Muchos de los servicios sólo funcionan con mujeres.

Estas aplicaciones son parte de una preocupante tendencia de desarrollo y distribución de pornografía no consensuada debido a los avances en inteligencia artificial, un tipo de medio fabricado conocido como pornografía deepfake.

Su proliferación tropieza con serios obstáculos legales y éticos, ya que las imágenes a menudo se toman de las redes sociales y se distribuyen sin el consentimiento, control o conocimiento del sujeto.

El aumento de popularidad corresponde al lanzamiento de varios modelos de difusión de código abierto, o inteligencia artificial que puede crear imágenes muy superiores a las creadas hace apenas unos años, afirmó Graphika.

Debido a que son de código abierto, los modelos que utilizan los desarrolladores de aplicaciones están disponibles de forma gratuita.

Puedes crear algo que realmente parezca realista”, dijo Santiago Lakatos, analista de Graphika, y señaló que los deepfakes anteriores a menudo eran borrosos.

Una imagen publicada en X que anunciaba una aplicación para desnudarse usaba un lenguaje que sugería que los clientes podían crear imágenes de desnudos y luego enviárselas a la persona cuya imagen estaba desnuda digitalmente, incitando al acoso.

Mientras tanto, una de las aplicaciones paga por contenido patrocinado en YouTube de Google y aparece primero cuando se busca con la palabra “nudify”.

Un portavoz de Google dijo que la compañía no permite anuncios “que contengan contenido sexual explícito”. Hemos revisado los anuncios en cuestión y estamos eliminando aquellos que violan nuestras políticas”.

Un portavoz de Reddit dijo que el sitio prohíbe compartir sin consentimiento material sexualmente explícito falso y que había prohibido varios dominios como resultado de la investigación. X no respondió a una solicitud de comentarios.

Además del aumento del tráfico, los servicios, algunos de los cuales cobran US$9,99 al mes, afirman en sus sitios web que están atrayendo a muchos clientes.

“Están haciendo muchos negocios”, dijo Lakatos. Al describir una de las aplicaciones para desvestirse, dijo: “Si les tomas la palabra, su sitio web anuncia que tiene más de 1.000 usuarios por día”.

La pornografía no consensuada de figuras públicas ha sido durante mucho tiempo un flagelo de Internet, pero los expertos en privacidad están cada vez más preocupados de que los avances en la tecnología de inteligencia artificial hayan hecho que el software deepfake sea más fácil y efectivo.

Estamos viendo que cada vez más personas comunes y corrientes hacen esto con objetivos comunes”, dijo Eva Galperin, directora de ciberseguridad de Electronic Frontier Foundation. “Se ve entre los niños de secundaria y las personas que están en la universidad”.

Muchas víctimas nunca se enteran de las imágenes, pero incluso aquellas que sí lo hacen pueden tener dificultades para que las autoridades investiguen o encuentren fondos para emprender acciones legales, dijo Galperin.

Actualmente no existe ninguna ley federal que prohíba la creación de pornografía deepfake, aunque el Gobierno de Estados Unidos prohíbe la generación de este tipo de imágenes de menores.

En noviembre, un psiquiatra infantil de Carolina del Norte fue sentenciado a 40 años de prisión por usar aplicaciones para desnudarse en fotografías de sus pacientes, el primer procesamiento de este tipo bajo una ley que prohíbe la generación de material de abuso sexual infantil falsificado.

TikTok bloqueó la palabra clave “desvestirse”, un término de búsqueda popular asociado con los servicios, advirtiendo a cualquiera que busque la palabra que “puede estar asociada con un comportamiento o contenido que viola nuestras pautas”, según la aplicación.

Un representante de TikTok se negó a dar más detalles.

En respuesta a las preguntas, Meta Platforms Inc. también comenzó a bloquear palabras clave asociadas con la búsqueda de aplicaciones para desvestirse.

Un portavoz se negó a hacer comentarios.

Lea más en Bloomberg.com