Barcelona, España — Cuando el tema es Inteligencia Artificial (IA), el chileno Ricardo Baeza-Yates es una referencia. Actual director de Investigación en el Instituto de IA Experiencial de la Universidad Northeastern en Silicon Valley y profesor a tiempo parcial de la Universitat Pompeu Fabra (UPF), el experto lleva décadas remarcando los desafíos éticos que tiene este tipo de algoritmos.
Fue en 2006, tras haber investigado por 30 años temas como algoritmos, minería de datos y búsquedas en la web, que el experto hizo su salto de la academia a la industria: creó el laboratorio de investigación Yahoo Labs para Europa, ubicado en Barcelona, y comenzó a usar las técnicas del aprendizaje automático, el machine learning.
En Silicon Valley, el investigador se dedica sobre todo a los sesgos en la inteligencia artificial: no sólo aquellos inherentes a las personas sino también los que ocurren dentro de los sistemas tecnológicos y la web.
Baeza-Yates habló con Bloomberg Línea durante su participación en el Mobile World Congress, para el cual fue invitado como ponente de una conferencia sobre la ética en la Inteligencia Artificial. En concreto, en la entrevista se refirió al lado oscuro de la tecnología y su impacto en los ámbitos laborales y de los negocios. Aunque Baeza-Yates exponga, en algunos puntos del diálogo, una expectativa un tanto “utópica” sobre el impacto de la IA en la sociedad, en otros momentos suena más realista con respecto a esta tecnología.
Él rechaza el uso de los bots conversacionales como mecanismos de búsqueda (que podrían conducir la Humanidad a la “Edad Media de la Información”, según el experto), critica la iniciativa de la Unión Europea de regular el uso de la IA y discrepa de las afirmaciones de que la inteligencia artificial es la nueva electricidad (una variación del lema que se puso de moda, “los datos son el nuevo petróleo”). “Definitivamente no: primero que la inteligencia artificial necesita la electricidad y no puede reemplazarla; segundo que la electricidad siempre funciona y la IA no.”
⇒ Lea la entrevista completa de Ricardo Baeza-Yates a Bloomberg Línea, cuyo contenido fue editado por motivos de extensión y claridad:
→ La Ética de la Inteligencia Artificial (IA)
¿Qué consideraciones éticas deben tener en cuenta las empresas al utilizar la Inteligencia Artificial para tomar decisiones importantes?
Hay varias recomendaciones de distintos colectivos. Por ejemplo, la UNESCO sacó en noviembre de 2021 unas recomendaciones, en octubre del año pasado la Casa Blanca hizo un listado de cinco principios para para este tipo de sistemas y la ACM (Association for Computing Machinery), que es la mayor asociación de informática del mundo, anunció a finales de 2022 una nueva recomendación, que reemplaza la del año 2017, una de las primeras sobre el uso responsable del algoritmo.
Son estos los principios de la ACM, de los cuales soy uno de los principales autores, para el buen uso de los algoritmos:
Legitimidad y competencia, Minimización del daño, Seguridad y privacidad, Transparencia, Interpretabilidad y explicabilidad, Mantenibilidad, Contestabilidad y auditabilidad, Rendición de cuentas y responsabilidad y Limitación del impacto ambiental.
Básicamente, este código de conducta quiere asegurar que, antes de adoptar la tecnología de IA, las empresas hagan un análisis de impacto ético y que comprueben que el potencial beneficio (a las personas y también al medio ambiente) supera el potencial de daño. También hay puntos que tienen que ver con la transparencia, con el poder reclamar cuando hay algún problema, con la posibilidad de rendición de cuentas y la responsabilidad.
Una de las críticas a la Inteligencia Artificial que genera contenidos son los sesgos que ha heredado de la sociedad misma, ya sean por sexo, género, religión o incluso económicos. Eliminarlos supongo que no sería posible, pero ¿cómo mitigarlos?
Sí, se pueden mitigar, aunque no eliminar, porque muchos son invisibles hasta que ocurren. Ahora, los sesgos no están solamente los datos, muchas veces el propio sistema amplifica los sesgos y también la interacción del usuario con el sistema, por ejemplo, en comercio electrónico hay muchos sesgos que la gente no se da cuenta, como el del orden de resultados afecta qué página escogemos.
Entonces los sesgos, además de estar relacionados con los datos recopilados por la IA, también son generados por otros elementos. ¿Cómo mitigarlos entonces?
Exactamente. El sistema, si es consciente de eso, lo puede mitigar. Te doy un ejemplo muy simple que es uno de los sesgos que más se conoce desde tipo y que se resuelve: mucha gente, cuando hace una búsqueda, se fía de los primeros resultados sólo porque están en primer lugar, no porque son los mejores. Es un sesgo de tipo cognitivo. Se pueden hacer experimentos para mitigar estos sesgos: cambiar los resultados de orden de modo de que extraiga valor intrínseco, el correcto.
El uso de la IA generativa y de los asistentes de voz está cambiando totalmente la manera cómo buscamos y los resultados a los que accedemos. Ahora tenemos un listado de resultados en las páginas de los buscadores, pero con las nuevas tecnologías recibiremos menos resultados. ¿Eso aumentará los sesgos y nos encasillará en burbujas?
Seguro que sí. Creo que peor que eso, porque un ChatGPT es otro tipo de herramienta, no puede ser tratado como un buscador.
Pero lo quieren convertir también en un buscador. Por lo menos fue esta la razón principal anunciada por Microsoft cuando destinó US$ 10.000 millones a OpenAI, integrar la tecnología a su buscador Bing…
Sí, pero por definición no es un buscador. Un buscador, por ejemplo, tiene que darte referencias de las fuentes, tiene que asegurarse que lo que dice es verdad, hay muchas cosas que estos sistemas todavía no hacen - de hecho, te inventan cosas. Entonces no solamente hay menos diversidad, sino que hay cosas que no son ciertas. Y esto para mí es muy grave, porque el buscador deja de ser una fuente, digamos, de conocimiento y se vuelve más bien una fuente de ficción.
Es una mala idea que estos sistemas se usen como un buscador, y por eso Google lo detuvo. Así que van a existir muchos problemas y para mí esto será como una especie de Edad Media de la información, que aumentará la brecha digital e incluso la lingüística: en los idiomas donde hay muchos recursos lingüísticos, que deben representar unas 300 lenguas, frente a unas 7.000 habladas globalmente, los resultados van a ser mejores. Es como que tuvieras una Torre de Babel donde cada lenguaje tiene un conocimiento distinto.
¿Cuál cree que sería la manera adecuada de introducirla en los modelos educativos para aprovechar sus potencialidades, y que no acabe terminando de golpear al pensamiento crítico?
No hay marcha atrás en el uso de la inteligencia artificial conversacional. Conozco un caso muy interesante en Estados Unidos que cambia el paradigma del uso de esta tecnología. El profesor les dijo a los alumnos: en la próxima tarea tienen que usar esta herramienta y la parte principal del ejercicio va a ser verificar si todo lo que diga la IA generativa es cierto.
→ La Inteligencia Artificial en los Negocios
¿Cuál es el mayor impacto que la IA ha tenido en los negocios hasta ahora?
El impacto es gigantesco porque hay miles de sistemas que usan la IA a diario, empezando por los sistemas de recomendaciones de comercio electrónico, predecir las palabras que vas a escribir, casi todas las app de los móviles, el reconocimiento facial (para el bien y para el mal). Todo eso ya existía, la novedad es el ChatGPT.
¿Cómo ve el uso de la IA para la toma de decisiones en el ámbito empresarial? ¿Cree que es una herramienta eficaz para mejorar la eficiencia y la rentabilidad de las empresas?
Puede mejorar la productividad, hacer más cosas de manera más rápida, y como consecuencia eso puede tener efecto en la rentabilidad.
¿Hay algún sector o ámbito que, desde su punto de vista, ¿no debería embarcar en la inteligencia artificial?
Creo que no deberían ser usadas para tomar decisiones que afectan a las personas en el ámbitos educativos, financieros, de Justicia… Porque es un problema de ética. Quiero decidir quiénes deberían recibir una beca o un préstamo o quiénes deberían ser liberados o declarados culpables en un juicio. El enfoque es que yo uso los datos de otras personas, de otros juicios, para decidir sobre tu caso. Cada persona es única, con un contexto único, con unas características únicas. La Justicia es personalizada, las decisiones sobre las becas y las financieras tienen que ser personalizadas, los datos sólo modelan parte del problema, y acaban generando discriminaciones.
¿Cuáles son algunos de los mayores desafíos que enfrenta la IA en la actualidad y cómo se pueden abordar estos desafíos?
Básicamente hacer que se cumplan las cosas. ¿Quién verifica el cumplimiento de estos principios? No hay una “policía”, una institución a cargo de esto.
¿Pero cree que habría que crear una agencia reguladora de la inteligencia artificial?
Yo creo que no, es un error regular el uso de una tecnología. Porque sería como regular el uso del martillo: claro, el martillo puede ser usado para cosas malas y cosas buenas. Imagínate que para cada tecnología nueva tengamos que preparar otra regulación - y esa regulación tendría que ser coherente con la anterior.
¿Cómo evalúa lo que está haciendo Europa, de poner coto a las grandes tecnológicas, especialmente la utilización de la IA, con un paquete legislativo?
Esta es la primera vez en la Humanidad que se pretende regular una tecnología en Europa, hasta ahora siempre hemos regulado el problema (como hizo Europa con los temas de la protección de datos y los medicamentos), independiente de la tecnología que se usa. Además, la regulación actual deja muchas brechas. España quiere hacer un piloto de una regulación que aún no está decidida [esta semana, Extremadura anunció que será la primera comunidad autónoma española en regular la inteligencia artificial].
[La propuesta de la Ley de IA (AI Act), divulgada en 2021 por la Comisión Europea, pretende ser la primera ley sobre IA del mundo y clasifica el uso de IA en función de su riesgo. Se prohíben, por ejemplo, las aplicaciones que supongan un “riesgo inaceptable”, como los sistemas gubernamentales de puntuación social que se utilizan en China]
→ La Inteligencia Artificial y el Trabajo
¿Cómo cree que la Inteligencia Artificial cambiará la naturaleza del trabajo humano en el corto, mediana y largo plazo?
Depende mucho de si estamos pensando en usar la tecnología para reemplazar gente o estamos pensando en esto para ayudar a complementar a las personas.
Pero las empresas lo que quieren es eficiencia operacional, lo que supone también producir más con menos recursos...
Sí, pero yo creo que es un engaño a largo plazo. Hay cosas que los algoritmos no pueden hacer, hay cosas en las que los seres humanos somos únicos - y seremos únicos por mucho tiempo. Es decir, entender las cosas de verdad, el sentido común... En este caso, yo plantearía un objetivo distinto: ¿cómo hay que usar la IA? Yo la usaría para complementar a nosotros mismos, por ejemplo, que los robots hicieran todos los trabajos que nadie quiere hacer, los trabajos que tienen que ver con fuerza física, los trabajos aburridos...
Parece un poco utópico, incluso porque hay personas que no pueden elegir hacer los trabajos que les hacen felices.
Pero es este el problema. Yo creo que sí se puede elegir si decidimos otro tipo de sociedad. Imagínate que todo el mundo estuviera haciendo lo que le gusta hacer y desarrollando el potencial que tiene como persona. Incluso tendría sentido un salario universal para los que colaboran de alguna manera con la sociedad. El impacto de la inteligencia artificial, para mí, sí que sería positivo si quisiéramos que éste fuese el objetivo. Sería como un nuevo Renacimiento.
Lea también:
MWC23: Del internet de las cosas al internet de los sentidos
Telcos mundiales se alían para abrir sus redes a los desarrolladores