Bloomberg — Entre el conjunto de nuevos productos de inteligencia artificial de Meta Platforms Inc. (META) hay un chatbot entrenado para hablar como un detective pero parecerse a Paris Hilton, y un personaje con armadura llamado Dungeon Master que está basado en Snoop Dogg.
Están en el extremo divertido de un serio impulso de Meta para incorporar herramientas de IA generativa que puedan responder a los mensajes de los usuarios en aplicaciones utilizadas por miles de millones de personas cada mes y recae en Nick Clegg, presidente de asuntos globales de Meta, asegurarse de que su empleador lo hace de forma responsable tras años de críticas de que la empresa no salvaguarda adecuadamente sus productos.
“Hemos realizado miles de horas de pruebas de estrés para hacerlos lo más seguros posible”, dijo Clegg en el último episodio de la serie AI IRL de Bloomberg Originals. “No podemos garantizar que no escupan algo inapropiado o inoportuno en algún momento, pero podemos seguir reentrenándolo”.
Clegg dijo que participa “desde el principio” en la toma de decisiones de la alta dirección sobre la dirección que deben tomar las herramientas de IA de la empresa “para anticipar algunas de las cuestiones legales, normativas, morales, éticas y culturales con las que estos nuevos productos podrían chocar”.
Meta lleva años utilizando la IA bajo el capó de sus productos de cara al consumidor, sobre todo para determinar qué publicaciones y anuncios mostrar a los usuarios. También ha recurrido en gran medida a la IA para ayudar a detectar y combatir la difusión de información errónea. Pero ahora, la IA no es solo una solución a los problemas de la empresa; también es un gran dolor de cabeza potencial. Meta debe enfrentarse a una nueva serie de problemas planteados por herramientas de IA que pueden salirse del guión con un usuario o difundir información errónea. Al parecer, algunos usuarios ya han descubierto que las pegatinas generadas por la IA de Meta, anunciadas junto con los chatbots de famosos el mes pasado, pueden crear imágenes preocupantes.
Clegg, exmiembro del Parlamento Europeo y ex viceprimer ministro del Reino Unido, fue contratado por Meta en 2018 para dirigir sus actividades de presión a escala mundial, en un momento en que la empresa estaba lidiando con diversas crisis en torno a cuestiones de privacidad e intromisión electoral. Ahora, Meta y otros están desarrollando sistemas de IA bajo el intenso escrutinio de gobiernos, reguladores y especialistas en ética.
Hasta ahora, EE.UU. sólo ha buscado acuerdos voluntarios de las empresas tecnológicas para salvaguardar sus productos de IA. Clegg se unió al presidente Joe Biden en la Casa Blanca en julio para presentar algunos de los acordados. Europa, por su parte, se está moviendo más rápidamente que EE.UU. para regular la IA. El Parlamento Europeo aprobó en junio un proyecto de ley que establecería límites sobre cómo puede utilizarse la tecnología de IA, así como sanciones masivas en caso de infracción.
Clegg afirmó que el uso por parte de Meta de licencias transparentes y de código abierto para algunos de sus conjuntos de datos y modelos de gran lenguaje (la tecnología que sustenta los chatbots de IA) sería clave para salvaguardar un uso ético.
“Cuanto más abiertos seamos sobre el funcionamiento de estas nuevas tecnologías, más abiertos podremos ser sobre cuáles son los riesgos y los beneficios, cuáles son los controles para los usuarios y también sobre cómo tenemos que trabajar con los demás”, afirmó.
Lea más en Bloomberg.com