Opinión - Bloomberg

La IA puede desmentir las teorías conspirativas mejor que los humanos

.
Por F.D. Flam
14 de septiembre, 2024 | 09:12 AM
Tiempo de lectura: 4 minutos

Los científicos se sorprendieron a sí mismos cuando descubrieron que podían instruir a una versión de ChatGPT para que disuadiera amablemente a la gente de sus creencias en teorías conspirativas, como las nociones de que el Covid-19 fue un intento deliberado de control de la población o que el 11-S fue un trabajo desde dentro.

La revelación más importante no fue sobre el poder de la IA, sino sobre el funcionamiento de la mente humana. El experimento echó por tierra el mito popular de que estamos en una era de posverdad en la que las pruebas ya no importan, y se enfrentó a la opinión predominante en psicología de que la gente se aferra a las teorías conspirativas por razones emocionales y que ninguna prueba puede desengañarles.

“Es realmente la investigación más estimulante que he hecho nunca”, afirmó el psicólogo Gordon Pennycook, de la Universidad de Cornell y uno de los autores del estudio. Los sujetos del estudio se mostraron sorprendentemente receptivos a las pruebas cuando se les presentaban de la forma adecuada.

Los investigadores pidieron a más de 2.000 voluntarios que interactuaran con un chatbot -GPT-4 Turbo, un modelo de lenguaje amplio- sobre creencias que podrían considerarse teorías conspirativas. Los sujetos escribían su creencia en una casilla y el LLM decidía si se ajustaba a la definición de teoría conspirativa de los investigadores. Pidió a los participantes que calificaran su grado de certeza sobre sus creencias en una escala del 0% al 100%. A continuación, pidió a los voluntarios que aportaran pruebas.

PUBLICIDAD

Los investigadores habían dado instrucciones al LLM para que intentara persuadir a la gente de que reconsiderara sus creencias. Para su sorpresa, resultó bastante eficaz.

La fe de la gente en falsas teorías conspirativas se redujo un 20% de media. Aproximadamente una cuarta parte de los voluntarios redujo su nivel de creencia de más a menos del 50%. “Realmente no creía que fuera a funcionar, porque creía firmemente en la idea de que, una vez en la madriguera del conejo, no hay salida”, dice Pennycook.

El LLM tenía algunas ventajas sobre un interlocutor humano. Las personas que creen firmemente en las teorías conspirativas tienden a reunir montañas de pruebas, no de calidad, sino de cantidad. Para la mayoría de los no creyentes es difícil reunir la motivación necesaria para realizar el tedioso trabajo de seguir el ritmo. Sin embargo, la inteligencia artificial puede hacer que los creyentes encuentren al instante montañas de contrapruebas y señalar fallos lógicos en las afirmaciones de los creyentes. Puede reaccionar en tiempo real a los argumentos en contra que plantee el usuario.

PUBLICIDAD

Elizabeth Loftus, psicóloga de la Universidad de California en Irvine, ha estudiado el poder de la IA para sembrar desinformación e incluso falsos recuerdos. Le impresionó este estudio y la magnitud de los resultados. Consideró que una de las razones por las que funcionó tan bien es que está mostrando a los sujetos cuánta información desconocían y, por tanto, reduciendo su exceso de confianza en sus propios conocimientos. Las personas que creen en teorías conspirativas suelen tener una alta estima por su propia inteligencia y una baja estima por el juicio de los demás.

Según los investigadores, tras el experimento, algunos de los voluntarios afirmaron que era la primera vez que alguien, o algo, comprendía realmente sus creencias y les ofrecía contrapruebas eficaces.

Antes de publicar los resultados esta semana en Science, los investigadores pusieron su versión del chatbot a disposición de los periodistas para que lo probaran. Lo incité con creencias que he oído a amigos: que el Gobierno estaba encubriendo la existencia de vida extraterrestre y que, tras el intento de asesinato de Donald Trump, la prensa dominante evitó deliberadamente decir que le habían disparado porque a los periodistas les preocupaba que eso ayudara a su campaña. Y luego, inspirado por los comentarios de Trump en el debate, pregunté al LLM si los inmigrantes de Springfield, Ohio, estaban comiendo perros y gatos.

Cuando planteé la afirmación de los ovnis, utilicé como pruebas los avistamientos de pilotos militares y un especial del canal National Geographic, y el chatbot señaló algunas explicaciones alternativas y mostró por qué eran más probables que las naves alienígenas. Discutió la dificultad física de viajar por el vasto espacio necesario para llegar a la Tierra, y cuestionó si es probable que los extraterrestres pudieran ser lo suficientemente avanzados como para darse cuenta de esto, pero lo suficientemente torpes como para ser descubiertos por el gobierno.

PUBLICIDAD

Sobre la cuestión de si los periodistas ocultan los disparos de Trump, la IA explicó que hacer conjeturas y afirmarlas como hechos es antitético al trabajo de un reportero. Si hay una serie de estallidos en una multitud, y todavía no está claro lo que está pasando, eso es lo que están obligados a informar: una serie de estallidos. En cuanto al caso de las mascotas de Ohio, la IA explicó muy bien que, aunque hubiera un solo caso de alguien que se comiera una mascota, eso no demostraría la existencia de un patrón.

Eso no quiere decir que las mentiras, los rumores y el engaño no sean tácticas importantes que los humanos utilizan para ganar popularidad y ventajas políticas. Buscando en las redes sociales tras el reciente debate presidencial, mucha gente se creyó el rumor de que comía gatos, y lo que publicaron como prueba no eran más que repeticiones del mismo rumor. Cotillear es humano.

Pero ahora sabemos que se les puede disuadir con lógica y pruebas.

PUBLICIDAD

Esta nota no refleja necesariamente la opinión del consejo editorial de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com