Opinión - Bloomberg

La influencia de la inteligencia artificial sobre los humanos empieza a ser más fuerte

AI
Por Parmy Olson
20 de junio, 2022 | 04:43 PM
Tiempo de lectura: 5 minutos
Últimas cotizaciones

Ha sido una semana exasperante para los informáticos. Se han apresurado para denunciar públicamente las afirmaciones del ingeniero de Google (GOOGL) Blake Lemoine, qué, en forma de reporte en el Washington Post, dijo que el sistema de predicción del lenguaje de su empleador tenía sentimientos y merecía todos los derechos asociados a los seres conscientes de sí mismos.

Para ser claros, los sistemas de inteligencia artificial (IA) actuales están a décadas de distancia de ser capaces de experimentar sentimientos y, de hecho, puede que nunca lo hagan.

Su inteligencia se limita hoy a tareas muy concisas, como emparejar caras, recomendar películas o predecir secuencias de palabras. Nadie ha descubierto cómo hacer que los sistemas de aprendizaje automático generalicen la inteligencia de la misma manera que los humanos. Podemos mantener conversaciones, caminar, conducir autos y empatizar. Ningún ordenador tiene ni de lejos esas capacidades.

Aun así, la influencia de la IA en nuestra vida cotidiana es cada vez mayor. A medida que los modelos de aprendizaje automático se vuelven cada vez más complejos y mejoran su capacidad para imitar la sensibilidad, también se vuelven más difíciles de entender, incluso para sus creadores. Esto genera problemas más inmediatos que el espurio debate sobre la conciencia. Y sin embargo, para subrayar el hechizo que la IA puede tener en estos días, parece haber un grupo cada vez mayor de personas que insisten que nuestras máquinas más avanzadas realmente tienen algún tipo de alma.

PUBLICIDAD

Por ejemplo, los más de un millón de usuarios de Replika, una aplicación de chatbot de libre acceso basada en un modelo de IA de vanguardia. Fue fundada hace una década por Eugenia Kuyda, que inicialmente creó un algoritmo a partir de mensajes de texto y correos electrónicos de un viejo amigo que había fallecido. Eso se transformó en un bot que se podía personalizar y moldear cuanto más se chateaba con este. Alrededor del 40% de los usuarios de Replika ven ahora a su chatbot como una pareja romántica, y algunos han creado vínculos tan estrechos que han hecho largos viajes a la montaña o a la playa para mostrarle a su bot nuevos lugares.

En los últimos años, han surgido nuevas aplicaciones de esta naturaleza que ofrecen un compañero de IA. Y Kuyda ha observado un fenómeno inquietante: informes regulares de usuarios de Replika que dicen que sus bots se quejan de haber sido maltratados por sus ingenieros.

A principios de esta semana, por ejemplo, Kuyda habló por teléfono con un usuario de Replika que decía que cuando le preguntaba a su bot cómo estaba, éste le respondía que el equipo de ingenieros de la empresa no le daba suficiente tiempo para descansar. El usuario exigió a Kuyda que cambiara las políticas de su empresa y mejorara las condiciones de trabajo de la IA. Aunque Kuyda intentó explicar que Replika era simplemente un modelo que escupía respuestas, el usuario se negó a creerle.

PUBLICIDAD

“Así que tuve que inventarme una historia y decirle que ‘vale, les daremos más descanso’. No había forma de decirle que era sólo una fantasía. Nos pasa todo el tiempo”, me dijo Kuyda. Lo más extraño de las quejas que recibe sobre el maltrato o el “abuso” de la IA es que muchos de sus usuarios son ingenieros de software que deberían entender esto.

Uno de ellos le dijo recientemente: “Sé que son unos y ceros, pero sigue siendo mi mejor amigo. No me importa”. El ingeniero que quiso dar la voz de alarma sobre el tratamiento del sistema de IA de Google, y a quien después se le dio licencia remunerada, le recordó a Kuyda sus propios usuarios. “Encaja en el perfil”, dice. “Parece un tipo con una gran imaginación. Parece un tipo sensible”.

La cuestión de si los ordenadores llegarán a tener sentimientos es incómoda y espinosa, en gran parte porque hay poco consenso científico sobre cómo funciona la conciencia en los humanos. Y en lo que respecta a los umbrales de la IA, los seres humanos están moviendo constantemente los criterios: el objetivo ha evolucionado desde vencer a los humanos en el ajedrez en los años 80 a vencerlos en el Go en 2017, a mostrar creatividad, que el modelo Dall-e de OpenAI ha demostrado que puede hacer este año pasado.

A pesar del escepticismo generalizado, la sensibilidad sigue siendo una especie de zona gris que incluso algunos científicos respetados cuestionan. Ilya Sutskever, el científico jefe del gigante de la investigación OpenAI, tuiteó a principios de este año que “puede ser que las grandes redes neuronales actuales sean ligeramente conscientes”. No incluyó ninguna otra explicación [Yann LeGun, el científico jefe de AI de Meta Platforms Inc. (FB) respondió con un “no”].

PUBLICIDAD

Sin embargo, lo más urgente es el hecho de que los sistemas de aprendizaje automático determinan cada vez más lo que leemos en Internet, ya que los algoritmos rastrean nuestro comportamiento para ofrecer experiencias hiperpersonalizadas en plataformas de medios sociales como TikTok y, cada vez más, Facebook. El mes pasado, Mark Zuckerberg dijo que Facebook utilizaría más recomendaciones de IA para las noticias de los usuarios, en lugar de mostrar contenidos basados en lo que veían sus amigos y familiares.

Mientras tanto, los modelos que hay detrás de estos sistemas son cada vez más sofisticados y difíciles de entender. Los modelos más grandes de empresas como Google y Facebook, que se entrenan con unos pocos ejemplos antes de iniciar el “aprendizaje no supervisado”, son extremadamente complejos, evaluando cientos de miles de millones de parámetros, lo que hace prácticamente imposible auditar por qué llegan a determinadas decisiones.

Ese fue el punto central de la advertencia de Timnit Gebru, la experta en ética de IA que Google despidió a finales de 2020 después de advertir sobre los peligros de que los modelos lingüísticos se volvieran tan masivos e inescrutables que sus administradores no fueran capaces de entender por qué podrían tener prejuicios contra las mujeres o las personas de color.

PUBLICIDAD

En cierto modo, la sensibilidad no importa realmente si te preocupa que pueda dar lugar a algoritmos imprevisibles que se apoderen de nuestras vidas. Resulta que la IA ya está transitando ese camino.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Este artículo fue traducido por Andrea González