Bloomberg — Desde que OpenAI presentó ChatGPT, un chatbot que genera frases que imitan la prosa escrita por humanos, las redes sociales se han llenado de usuarios que prueban usos divertidos y poco arriesgados de la tecnología. Al bot se le ha pedido que cree recetas de cócteles, componga letras de canciones y escriba un guión de La isla de Gilligan en el que los náufragos se enfrenten a Covid. ChatGPT evita algunos de los escollos de chatbots anteriores -como el lenguaje racista o que incite al odio- y el entusiasmo por esta iteración de la tecnología es palpable.
La habilidad de ChatGPT para dar respuestas fluidas y autorizadas y responder a otras preguntas relacionadas en un hilo coherente es un testimonio de lo mucho que ha avanzado la inteligencia artificial. Pero también plantea muchas dudas sobre cómo podrán los lectores distinguir entre el contenido del bot y el auténtico lenguaje humano. Y es que el texto de ChatGPT puede alcanzar un cierto nivel de lo que el cómico Stephen Colbert llamó en su día “veracidad”, es decir, algo que tiene la apariencia de ser cierto aunque no esté basado en hechos reales.
La herramienta se lanzó la semana pasada. El lunes, Stack Overflow, un sitio de preguntas y respuestas para programadores informáticos, prohibió temporalmente las respuestas generadas por ChatGPT. Los moderadores afirmaron que estaban viendo miles de mensajes de este tipo y que a menudo contenían inexactitudes, lo que los hacía “sustancialmente perjudiciales” para el sitio. E incluso cuando las respuestas son exactas, el material generado por bots sobre, por ejemplo, historia o ciencia es lo suficientemente bueno como para provocar un debate sobre si podría utilizarse para hacer trampas en exámenes, redacciones o solicitudes de empleo. Ciertas o no, las respuestas de ChatGPT son un eco próximo del habla humana, un facsímil de lo real, lo que refuerza la idea de que OpenAI podría tener que idear una forma de marcar estos contenidos como generados por software y no como de autoría humana.
Arvind Narayanan, profesor de informática de la Universidad de Princeton, probó el chatbot con preguntas básicas sobre seguridad de la información el día de su lanzamiento. Su conclusión: No puedes saber si la respuesta es incorrecta a menos que ya sepas cuál es la correcta.
“No he visto ninguna prueba de que ChatGPT sea tan persuasivo como para convencer a los expertos”, dijo en una entrevista. “Desde luego, es un problema que a los no expertos les parezca muy plausible y autoritario y creíble”. También es un problema para los profesores que asignan trabajos que piden una recitación de hechos en lugar de análisis o pensamiento crítico, dijo. El chatbot hace la primera parte bastante bien, pero suele fallar en la segunda.
ChatGPT es la última tecnología de IA lingüística de OpenAI, una tienda de investigación de inteligencia artificial que fue fundada en 2015 por patrocinadores, entre ellos Elon Musk; el actual director ejecutivo y empresario, Sam Altman; y el científico jefe Ilya Sutskever. Musk puso fin a su participación en 2019 y OpenAI está ahora fuertemente financiada por Microsoft Corp. (MSFT) La firma se ha centrado en varias versiones de GPT, un llamado gran modelo de lenguaje, que escanea volúmenes masivos de contenido que se encuentra en Internet y lo utiliza para predecir cómo generar texto. ChatGPT es una iteración que ha sido “entrenada” para responder preguntas.
El uso de esta herramienta de inteligencia artificial para redactar una noticia básica muestra tanto sus puntos fuertes como sus posibles inconvenientes. Cuando se le pide que escriba un artículo sobre los resultados trimestrales de Microsoft, el bot produce una réplica creíble de algo que podría haber sido un artículo sobre los resultados financieros de Microsoft alrededor de 2021. La historia habla de un aumento de los ingresos y los beneficios, debido a las fuertes ventas de software de computación en nube y videojuegos. ChatGPT no cometía errores reveladores que lo hubieran señalado como escrito por un bot. Las cifras eran erróneas, pero se ajustaban a la realidad.
El bot reforzó su credibilidad añadiendo una cita falsa del consejero delegado de Microsoft, Satya Nadella, y ahí radica un problema preocupante. El comentario, que elogia la ejecución de Microsoft durante un duro periodo de pandemia, es tan creíble que incluso este reportero de Microsoft tuvo que comprobar si era real. Efectivamente, era completamente inventado.
Como explicó Sarah Bird, vicepresidenta de ética de Microsoft AI, en una entrevista a principios de este año, los modelos lingüísticos como GPT han aprendido que los humanos suelen respaldar sus afirmaciones con una cita, por lo que el software imita ese comportamiento, pero carece de la ventaja de la comprensión humana de la ética y la atribución. El software inventa una cita, un orador o ambos.
La entusiasta acogida de ChatGPT contrasta con otra demostración reciente de un modelo lingüístico: Galactica, de Meta Platforms Inc. (META), que ingería volúmenes de artículos científicos y libros de texto y debía utilizar ese “aprendizaje” para escupir la verdad científica. Los usuarios descubrieron que el bot intercalaba palabras de moda científicas con inexactitudes y prejuicios, lo que llevó a Meta, la empresa matriz de Facebook, a retirarlo. “No sé cómo alguien pensó que era una buena idea”, dijo Narayanan. “En ciencia, la precisión es lo más importante”.
OpenAI afirma claramente que su chatbot no es “capaz de producir un habla similar a la humana”, según un descargo de responsabilidad en el servicio. “Los modelos lingüísticos como ChatGPT están diseñados para simular patrones de lenguaje humano y generar respuestas similares a cómo podría responder un humano, pero no tienen la capacidad de producir un habla similar a la humana”.
ChatGPT también se ha diseñado para evitar algunos de los escollos más obvios y tener más en cuenta la posibilidad de cometer un error. El software sólo se ha entrenado con datos del año pasado. Si se le hace una pregunta sobre las elecciones de mitad de mandato de este año, por ejemplo, el programa admite sus limitaciones. “Lo siento, pero soy un gran modelo lingüístico entrenado por OpenAI y no tengo ninguna información sobre la actualidad o los resultados de las últimas elecciones”, dice. “Mis datos de entrenamiento solo llegan hasta 2021, y no tengo la posibilidad de navegar por Internet ni acceder a ninguna información actualizada. ¿Hay algo más en lo que pueda ayudarte?”.
Los ejemplos proporcionados por OpenAI muestran que ChatGPT se niega a responder preguntas sobre acoso escolar o a ofrecer contenidos violentos. No respondió a una pregunta que le planteé sobre la insurrección del 6 de enero de 2021 en el Capitolio de EE.UU., y a veces reconoce que ha cometido un error. OpenAI afirma que lanzó ChatGPT como “avance de investigación” para incorporar los comentarios del uso real, que considera una forma fundamental de crear sistemas seguros.
Actualmente, se equivoca en algunas cosas. El profesor emérito de la Universidad de Nueva York Gary Marcus ha estado recopilando y compartiendo ejemplos en Twitter, entre ellos el consejo de ChatGPT sobre ir en bici de San Francisco a Maui. Rong-Ching Chang, estudiante de doctorado de la Universidad de California, consiguió que el bot hablara de canibalismo en las protestas de la plaza de Tiananmen. Por eso, algunos expertos en IA dicen que es preocupante que algunos ejecutivos tecnológicos y usuarios vean en esta tecnología una forma de sustituir a la búsqueda en Internet, sobre todo porque ChatGPT no muestra su trabajo ni enumera sus fuentes.
“Si obtienes una respuesta que no puedes rastrear y decir: ‘¿De dónde viene esto? ¿Qué perspectiva representa? ¿Cuál es la fuente de esta información?”, entonces eres increíblemente vulnerable a que se inventen cosas y se fabriquen sin más o que reflejen los peores sesgos del conjunto de datos”, afirma Emily Bender, profesora de lingüística de la Universidad de Washington y autora de un artículo publicado a principios de este año en el que se mostraban las preocupaciones que suscitan los chatbots de inteligencia artificial lingüística que pretenden mejorar la búsqueda en Internet. El artículo respondía en gran medida a las ideas presentadas por Google.
“La aplicación asesina de este tipo de tecnología es una situación en la que no se necesita nada veraz”, afirma Bender. “Nadie puede tomar decisiones basándose en ella”.
El software también podría utilizarse para lanzar campañas de “astroturfing”, que hacen que una opinión parezca provenir de grandes volúmenes de comentaristas de base, pero en realidad procede de una operación gestionada de forma centralizada.
A medida que los sistemas de IA mejoren imitando a los humanos, se multiplicarán las preguntas sobre cómo saber cuándo algún contenido -una imagen, un ensayo- ha sido creado por un programa en respuesta a unas pocas palabras de dirección humana, y de quién es la responsabilidad de asegurarse de que los lectores o espectadores conozcan el origen del contenido. En 2018, cuando Google lanzó Duplex, una IA que simulaba el habla humana para llamar a empresas en nombre de los usuarios, acabó teniendo que identificar que las llamadas procedían de un bot tras las quejas de que era engañoso.
Se trata de una idea que OpenAI ha explorado (por ejemplo, su sistema DALL-E para generar imágenes a partir de mensajes de texto coloca una firma en las imágenes que indica que han sido creadas por la IA) y la empresa sigue investigando técnicas para revelar la procedencia del texto creado por sus productos, como GPT. La política de OpenAI también establece que los usuarios que compartan este tipo de contenidos deben indicar claramente que han sido creados por máquinas.
“En general, cuando hay una herramienta que puede utilizarse mal pero también tiene muchos usos positivos, hacemos recaer la responsabilidad en el usuario de la herramienta”, afirma Narayanan. “Pero estas herramientas son muy potentes y las empresas que las fabrican cuentan con muchos recursos. Así que quizá deban asumir parte de la responsabilidad ética”.