Bloomberg Opinión — A principios de este año, el profesor de Informática de Princeton Arvind Narayanan creó una interfaz de voz para ChatGPT para su hija de casi cuatro años. Se trataba en parte de un experimento y en parte porque creía que la IA sería algún día una parte importante de su vida.
La hija de Narayanan era curiosa por naturaleza, a menudo preguntaba sobre animales, plantas y el cuerpo humano, y él pensó que ChatGPT podría dar respuestas útiles a sus preguntas, me dijo. Para su sorpresa, el chatbot desarrollado por OpenAI también hizo un trabajo impecable al mostrar empatía, una vez que le dijo al sistema que estaba hablando con un niño pequeño.
“¿Qué pasa cuando se apaga la luz?”, le preguntó su hija.
“Cuando se apagan las luces, se hace de noche, y puede dar un poco de miedo”, respondió ChatGPT a través de una voz sintética. “¡Pero no te preocupes! Hay muchas cosas que puedes hacer para sentirte seguro y cómodo en la oscuridad”.
A continuación daba algunos consejos sobre el uso de lámparas de noche, y terminaba recordando que “es normal sentir un poco de miedo en la oscuridad”. La hija de Narayanan se tranquilizó visiblemente con la explicación, escribió en un post de Substack.
Microsoft Corp. y Google, de Alphabet Inc., se apresuran a mejorar sus motores de búsqueda con la gran tecnología de modelos lingüísticos que sustenta ChatGPT, pero hay buenas razones para pensar que la tecnología funciona mejor como acompañante emocional que como proveedor de datos.
Esto puede sonar raro, pero más extraño es que Bard, de Google, y Bing, de Microsoft, que se basa en la tecnología subyacente de ChatGPT, se posicionen como herramientas de búsqueda cuando tienen un vergonzoso historial de errores factuales: Bard dio información incorrecta sobre el telescopio James Webb en su primera demostración, mientras que Bing se equivocó en una serie de cifras financieras en la suya .
El coste de los errores factuales es alto cuando un chatbot se utiliza para realizar búsquedas. Pero cuando se diseña como acompañante es mucho menor, según Eugenia Kuyda, fundadora de la aplicación de inteligencia artificial Replika, que se ha descargado más de cinco millones de veces. “No arruinará la experiencia, a diferencia de lo que ocurre con las búsquedas, donde pequeños errores pueden romper la confianza en el producto”, añade Kuyda.
Margaret Mitchell, antigua investigadora de Google sobre Inteligencia Artificial y coautora de un artículo sobre los riesgos de los grandes modelos lingüísticos, ha afirmado que estos modelos “no son adecuados” para ser usados como motores de búsqueda.
Los modelos lingüísticos cometen errores porque los datos con los que se entrenan suelen incluir errores y porque los modelos no tienen una verdad de base sobre la que verificar lo que dicen. Sus diseñadores también pueden dar prioridad a la fluidez sobre la precisión.
Esa es una de las razones por las que estas herramientas son excepcionalmente buenas imitando la empatía. Al fin y al cabo, aprenden de textos extraídos de Internet, incluidas las reacciones emotivas publicadas en plataformas de redes sociales como Twitter y Facebook, y del apoyo personal mostrado a usuarios de foros como Reddit y Quora. Conversaciones extraídas de guiones de películas y programas de televisión, diálogos de novelas y trabajos de investigación sobre inteligencia emocional se incorporan a la formación para que estas herramientas parezcan empáticas.
No es de extrañar que algunas personas utilicen ChatGPT como una especie de roboterapeuta, según un artículo publicado en abril en Bloomberg Businessweek. Una persona dijo que lo utilizaba para evitar convertirse en una carga para los demás, incluido su propio terapeuta humano.
Para ver si podía medir la capacidad de empatía de ChatGPT, lo sometí a un test de inteligencia emocional en línea, haciéndole 40 preguntas de opción múltiple y diciéndole que respondiera a cada pregunta con la letra correspondiente. El resultado: Obtuvo puntuaciones perfectas en las categorías de conciencia social, gestión de las relaciones y autogestión, y sólo tropezó ligeramente en autoconciencia.
De hecho, ChatGPT superó a mi colega, el columnista de banca global Paul Davies, a pesar de que ambos somos humanos y tenemos emociones reales (o eso creemos).
Que una máquina nos reconforte con su empatía sintética parece algo irreal, pero tiene sentido. Nuestra necesidad innata de conexión social y la capacidad de nuestro cerebro para reflejar los sentimientos de los demás hacen que podamos sentirnos comprendidos aunque la otra parte no “sienta” realmente lo mismo que nosotros. Dentro de nuestro cerebro, las llamadas neuronas espejo se activan cuando percibimos la empatía de los demás -incluidos los chatbots-, ayudándonos a sentir una sensación de conexión.
La empatía, por supuesto, es un concepto polifacético, y para que la experimentemos de verdad, podríamos decir que necesitamos otro cuerpo caliente en la habitación que comparta nuestros sentimientos durante un momento.
Thomas Ward, psicólogo clínico del Kings College de Londres que ha investigado el papel del software en la terapia, advierte contra la suposición de que la IA puede llenar adecuadamente un vacío para las personas que necesitan apoyo en salud mental, sobre todo si sus problemas son graves. Un chatbot, por ejemplo, probablemente no reconocerá que los sentimientos de una persona son demasiado complejos para entenderlos. ChatGPT, en otras palabras, rara vez dice “no lo sé”, porque fue diseñado para errar en el lado de la confianza en lugar de la cautela con sus respuestas.
Y, en términos más generales, la gente debería desconfiar de recurrir habitualmente a los chatbots para dar salida a sus sentimientos. “Los aspectos sutiles de la conexión humana, como el tacto de una mano o saber cuándo hablar y cuándo escuchar, podrían perderse en un mundo que ve en los chatbots de IA una solución para la soledad humana”, afirma Ward.
Eso podría acabar creando más problemas de los que pensamos que estamos resolviendo. Pero de momento, al menos son más fiables por sus habilidades emocionales que por su dominio de los hechos”.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg lp y sus propietarios.