La IA creativa está generando algunos problemas complicados

Por

Bloomberg Opinion — Una escena tensa en la película iRobot de 2004 muestra al personaje interpretado por Will Smith discutiendo con un androide sobre la destreza creativa de la humanidad. “¿Puede un robot escribir una sinfonía?”, pregunta retóricamente. “¿Puede un robot convertir un lienzo en una hermosa obra maestra?”. “¿Puede?”, responde el robot.

Las máquinas no necesitarían la respuesta sarcástica en nuestra realidad actual. La respuesta sería simplemente “sí”.

En los últimos años, los sistemas de inteligencia artificial han pasado de ser capaces de procesar contenido (reconocer rostros o leer y transcribir texto) a crear pinturas digitales o escribir ensayos.

El artista digital Beeple se sorprendió en agosto cuando varios usuarios de Twitter generaron sus propias versiones de una de sus pinturas con herramientas impulsadas por IA. Un software similar puede crear música e incluso videos.

El término amplio que describe todo esto es “IA generativa”, y a medida que este último avance hacia nuestro futuro digital se convierte en parte de nuestro presente, ya están resurgiendo algunos desafíos familiares de la industria tecnológica, como los derechos de autor y el daño social.

Probablemente miraremos hacia atrás en 2022 como el año en que la IA generativa explotó en la atención general, cuando los sistemas de generación de imágenes de OpenAI y la startup de código abierto Stability AI se lanzaron al público, lo que provocó una avalancha de imágenes fantásticas en las redes sociales. Los avances aún se están produciendo de forma espesa y rápida. La semana pasada, los investigadores de Meta Platforms Inc. anunciaron un sistema de inteligencia artificial que podría negociar con éxito con humanos y generar diálogo en un juego de estrategia llamado Diplomacia . La inversión de capital de riesgo en el campo creció a US$1.300 millones en acuerdos este año, según datos de la firma de investigación Pitchbook, incluso cuando contrató otras áreas en tecnología. (El volumen de acuerdos creció casi un 500 % en 2021).

Las empresas que venden sistemas de IA para generar texto e imágenes estarán entre las primeras en ganar dinero, dice Sonya Huang, socia de Sequoia Capital, quien publicó un “mapa” de empresas de IA generativa que se volvió viral este mes. Un campo especialmente lucrativo será el de los juegos, que ya es la categoría más grande para el gasto digital de los consumidores.

“¿Qué pasaría si los juegos fueran generados por cualquier cosa que tu cerebro pudiera imaginar, y el juego simplemente se desarrolla a medida que avanzas?”, pregunta Huang. La mayoría de las nuevas empresas de IA generativa se basan en algunos modelos populares de IA a los que pagan para acceder o los obtienen de forma gratuita. OpenAI, la compañía de investigación de inteligencia artificial cofundada por Elon Musk y financiada principalmente por Microsoft Corp. (MSFT), vende acceso a su generador de imágenes DALL-E 2 y su escritor de texto automático GPT-3. (Su próxima iteración de este último, conocida como GPT-4, tiene la reputación de sus desarrolladores de ser extraordinariamente hábil para imitar bromas humanas, poesía y otras formas de escritura).

Pero estos avances no continuarán sin restricciones, y uno de los problemas más espinosos por resolver es el de los derechos de autor. Escribir “un dragón al estilo de Greg Rutkowski” producirá obras de arte que parece que podrían haber venido del artista digital de renombre que crea paisajes de fantasía. Rutkowski no obtiene ningún beneficio económico por eso, incluso si la imagen generada se usa con fines comerciales, algo de lo que el artista se ha quejado públicamente .

Los generadores de imágenes populares como DALL-E 2 y Stable Diffusion están protegidos por la doctrina del uso justo de Estados Unidos, que depende de la libertad de expresión como defensa para el uso de obras protegidas por derechos de autor. Sus sistemas de inteligencia artificial están entrenados en millones de imágenes, incluidas las de Rutkowski, por lo que, en teoría, se benefician de una explotación directa del trabajo original. Pero los abogados de derechos de autor y los tecnólogos están divididos sobre si los artistas alguna vez serán compensados.

En teoría, las empresas de IA podrían eventualmente copiar el modelo de licencia utilizado por los servicios de transmisión de música, pero las decisiones de IA suelen ser inescrutables: ¿cómo rastrearían el uso? Un camino podría ser compensar a los artistas cuando su nombre aparece en un aviso, pero dependería de las empresas de IA configurar esa infraestructura y vigilar su uso. Aumentando la presión está una demanda colectiva contra Microsoft Corp, Github Inc. y OpenAI por los derechos de autor que involucran una herramienta de generación de código llamada Copilot, un caso que podría sentar un precedente para el campo más amplio de la IA generativa.

Luego está el contenido en sí. Si la IA está generando rápidamente más información de la humanamente posible, incluida, inevitablemente, la pornografía , ¿qué sucede cuando parte de ella es dañina o engañosa? Facebook y Twitter en realidad han mejorado su capacidad para limpiar la información errónea en sus sitios en los últimos dos años, pero podrían enfrentar un desafío mucho mayor debido a las herramientas de generación de texto, como OpenAI, que retrasan sus esfuerzos. El problema fue subrayado recientemente por una nueva herramienta de Meta, el padre de Facebook.

A principios de este mes, Meta presentó Galactica, un sistema de lenguaje especializado en ciencia que podría escribir trabajos de investigación y artículos de Wikipedia. En tres días, Meta lo cerró. Los primeros evaluadores descubrieron que estaba generando tonterías que sonaban peligrosamente realistas, incluidas instrucciones sobre cómo hacer napalm en una bañera y entradas de Wikipedia sobre los beneficios de ser blanco o cómo viven los osos en el espacio . El efecto espeluznante era hechos mezclados tan finamente con tonterías que era difícil notar la diferencia entre los dos. La desinformación política y relacionada con la salud es lo suficientemente difícil de rastrear cuando está escrita por humanos. ¿Qué sucede cuando lo generan máquinas que suenan cada vez más como personas?

Eso podría convertirse en el mayor lío de todos.

Lea más en Bloomberg.com