Bloomberg — En marzo, poco antes de presentar al público Bard, su chatbot de inteligencia artificial, Google pidió a sus empleados que probaran la herramienta.
Un empleado llegó a la conclusión de que Bard era “un mentiroso patológico”: según las capturas de pantalla de la discusión interna. Otro lo calificó de “estremecedor”. Un empleado escribió que cuando le pedían sugerencias sobre cómo aterrizar un avión, Bard solía dar consejos que provocarían un accidente; otro dijo que daba respuestas sobre submarinismo “que probablemente provocarían lesiones graves o la muerte”.
Google lanzó Bard de todos modos. Según 18 trabajadores actuales y antiguos de la empresa y documentación interna revisada por Bloomberg, el gigante de las búsquedas en Internet de confianza está proporcionando información de baja calidad en una carrera por mantenerse a la altura de la competencia, al tiempo que da menos prioridad a sus compromisos éticos. La empresa, propiedad de Alphabet Inc. (GOOGL), se había comprometido en 2021 a duplicar su equipo de estudio de la ética de la inteligencia artificial y a dedicar más recursos a evaluar los daños potenciales de la tecnología. Pero el debut en noviembre de 2022 del popular chatbot de su rival OpenAI hizo que Google se apresurara a entretejer la IA generativa en todos sus productos más importantes en cuestión de meses.
Se trata de un ritmo de desarrollo notablemente más rápido para la tecnología, que podría tener profundas repercusiones sociales. El grupo de trabajo sobre ética que Google se comprometió a fortificar está ahora desprovisto de poder y desmoralizado, dijeron los trabajadores actuales y antiguos. A los empleados responsables de la seguridad y las implicaciones éticas de los nuevos productos se les ha dicho que no se metan en medio ni intenten acabar con ninguna de las herramientas de IA generativa en desarrollo, dijeron.
Google pretende revitalizar su maduro negocio de búsquedas en torno a esta tecnología de vanguardia, que podría introducir la IA generativa en millones de teléfonos y hogares de todo el mundo, idealmente antes de que OpenAI, con el respaldo de Microsoft Corp. (MSFT) se adelante a la empresa.
“La ética de la IA ha pasado a un segundo plano”, dijo Meredith Whittaker, presidenta de la Fundación Signal, que apoya la mensajería privada, y ex directiva de Google. “Si la ética no se sitúa por encima de los beneficios y el crecimiento, al final no funcionará”.
En respuesta a las preguntas de Bloomberg, Google afirmó que la IA responsable sigue siendo una de las principales prioridades de la empresa. “Seguimos invirtiendo en los equipos que trabajan en la aplicación de nuestros Principios de IA a nuestra tecnología”, declaró Brian Gabriel, portavoz. El equipo que trabaja en la IA responsable se deshizo de al menos tres miembros en una ronda de despidos que tuvo lugar en enero en la empresa, entre ellos el jefe de gobernanza y programas. Los recortes afectaron a unos 12.000 trabajadores de Google y su empresa matriz.
Google, que a lo largo de los años ha encabezado gran parte de la investigación en la que se basan los avances actuales de la IA, todavía no había integrado en sus productos una versión de la IA generativa orientada al consumidor cuando se lanzó ChatGPT. La empresa se mostraba cautelosa ante su poder y las consideraciones éticas que conllevaría integrar la tecnología en las búsquedas y otros productos estrella, según los empleados.
En diciembre, los altos directivos decretaron un “código rojo” competitivo y cambiaron su apetito por el riesgo. Los dirigentes de Google decidieron que mientras llamaran “experimentos” a los nuevos productos, el público podría perdonar sus defectos, dijeron los empleados. Aun así, necesitaba que sus equipos de ética se pusieran de acuerdo. Ese mes, Jen Gennai, responsable de la gobernanza de la IA, convocó una reunión del grupo de innovación responsable, encargado de defender los principios de la IA de la empresa.
Gennai sugirió que podrían ser necesarios algunos compromisos para acelerar el ritmo de lanzamiento de productos. La empresa asigna puntuaciones a sus productos en varias categorías importantes, con el fin de medir su preparación para el lanzamiento al público. En algunas, como la seguridad infantil, los ingenieros todavía tienen que superar el umbral del 100%. Pero puede que Google no tenga tiempo de esperar a la perfección en otras áreas, advirtió en la reunión. “‘Equidad’ puede no ser, tenemos que llegar al 99%”, dijo Gennai, refiriéndose a su término para reducir el sesgo en los productos. “En cuanto a la ‘imparcialidad’, podríamos estar en el 80, 85 por ciento o algo así” para que sea suficiente para el lanzamiento de un producto, añadió.
En febrero, un empleado planteó sus dudas en un grupo interno de mensajes: “Bard es peor que inútil: por favor, no lo lancen”. La nota fue vista por casi 7.000 personas, muchas de las cuales coincidían en que las respuestas de la herramienta de IA eran contradictorias o incluso atrozmente erróneas en simples consultas sobre hechos.
Al mes siguiente, Gennai anuló una evaluación de riesgos presentada por miembros de su equipo en la que se afirmaba que Bard no estaba listo porque podía causar daños, según personas familiarizadas con el asunto. Poco después, Bard se abrió al público, y la empresa lo calificó de “experimento”.
En una declaración, Gennai dijo que no fue únicamente decisión suya. Tras la evaluación del equipo, dijo que “añadió a la lista de riesgos potenciales de los revisores y elevó el análisis resultante” a un grupo de altos dirigentes de producto, investigación y negocio. Ese grupo “determinó entonces que era apropiado seguir adelante con un lanzamiento experimental limitado con formación previa continuada, barandillas mejoradas y descargos de responsabilidad apropiados”, dijo.
Silicon Valley en su conjunto sigue luchando por conciliar las presiones competitivas con la seguridad. Los investigadores que construyen IA superan en número a los que se centran en la seguridad en una proporción de 30 a 1, dijo el Centro de Tecnología Humana en una presentación reciente, subrayando la experiencia a menudo solitaria de expresar preocupaciones en una gran organización.
A medida que se aceleran los avances en inteligencia artificial, han surgido nuevas preocupaciones sobre sus efectos sociales. Los grandes modelos lingüísticos, las tecnologías en las que se basan ChatGPT y Bard, ingieren enormes volúmenes de texto digital de artículos de noticias, publicaciones en redes sociales y otras fuentes de Internet, y luego utilizan ese material escrito para entrenar software que predice y genera contenido por sí mismo cuando se le da una indicación o consulta. Esto significa que, por su propia naturaleza, los productos corren el riesgo de regurgitar discursos ofensivos, dañinos o inexactos.
Pero el notable debut de ChatGPT hizo que a principios de este año ya no hubiera vuelta atrás. En febrero, Google inició un bombardeo de anuncios de productos de IA generativa, promocionando el chatbot Bard, y luego el servicio de vídeo de la empresa, YouTube, que dijo que los creadores pronto podrían intercambiar virtualmente los trajes en los vídeos o crear “escenarios cinematográficos fantásticos” utilizando IA generativa. Dos semanas después, Google anunció nuevas funciones de IA para Google Cloud, mostrando cómo los usuarios de Docs y Slides podrán, por ejemplo, crear presentaciones y documentos de formación en ventas, o redactar correos electrónicos. El mismo día, la empresa anunció que incorporaría la IA generativa a sus ofertas de asistencia sanitaria. Los empleados dicen que les preocupa que la velocidad de desarrollo no deje tiempo suficiente para estudiar los posibles daños.
El reto de desarrollar inteligencia artificial de vanguardia de forma ética lleva mucho tiempo suscitando debates internos. La empresa se ha enfrentado a meteduras de pata de gran repercusión en los últimos años, incluido un embarazoso incidente en 2015, cuando su servicio Fotos etiquetó erróneamente como “gorilas” las imágenes de un desarrollador de software negro y su amigo.
Tres años después, la empresa dijo que no había corregido la tecnología de IA subyacente, sino que había borrado todos los resultados de los términos de búsqueda “gorila”, “chimpancé” y “mono”, una solución en la que, según afirma, intervino “un grupo diverso de expertos”. La empresa también creó una unidad de IA ética encargada de realizar un trabajo proactivo para que la IA sea más justa para sus usuarios.
Pero un punto de inflexión importante, según más de una docena de empleados actuales y antiguos, fue la expulsión de los investigadores de IA Timnit Gebru y Margaret Mitchell, que codirigieron el equipo de IA ética de Google hasta que fueron expulsados en diciembre de 2020 y febrero de 2021 por una disputa sobre la imparcialidad en la investigación de IA de la empresa. Samy Bengio, informático que supervisaba el trabajo de Gebru y Mitchell, y varios otros investigadores acabarían marchándose a la competencia en los años siguientes.
Tras el escándalo, Google intentó mejorar su reputación pública. El equipo responsable de IA se reorganizó bajo la dirección de Marian Croak, entonces vicepresidenta de ingeniería. Se comprometió a duplicar el tamaño del equipo de ética de IA y a reforzar los vínculos del grupo con el resto de la empresa.
Incluso después de las declaraciones públicas, a algunos les resultó difícil trabajar en la IA ética en Google. Un antiguo empleado dijo que pidieron trabajar en la equidad en el aprendizaje automático y se les desalentó sistemáticamente, hasta el punto de que afectó a su evaluación de rendimiento. Los jefes protestaron porque se interponía en su “trabajo real”, dijo la persona.
Los que siguieron trabajando en la IA ética en Google se preguntaron cómo hacer el trabajo sin poner en peligro sus propios empleos. “Fue una época aterradora”, dijo Nyalleng Moorosi, antiguo investigador de la empresa que ahora es investigador principal del Instituto de Investigación de IA Distribuida, fundado por Gebru. Hacer un trabajo de IA ética significa “que te contrataron literalmente para decir: no creo que esto esté preparado para la población”, añadió. “Y así estás ralentizando el proceso”.
A día de hoy, las revisiones éticas de la IA sobre productos y funciones, dijeron dos empleados, son casi totalmente voluntarias en la empresa, con la excepción de los trabajos de investigación y el proceso de revisión que realiza Google Cloud sobre los acuerdos con los clientes y los productos para su lanzamiento. La investigación de IA en áreas delicadas como la biometría, los rasgos de identidad o los niños reciben una revisión obligatoria de “temas sensibles” por parte del equipo de Gennai, pero otros proyectos no reciben necesariamente revisiones éticas, aunque algunos empleados se ponen en contacto con el equipo ético de IA incluso cuando no es necesario.
Aun así, cuando los empleados de los equipos de producto e ingeniería de Google buscan una razón por la que la empresa ha tardado en comercializar la IA, suele salir a relucir el compromiso público con la ética. Algunos en la empresa creían que la nueva tecnología debía estar en manos del público lo antes posible, para mejorarla más rápidamente con los comentarios.
Antes del código rojo, a los ingenieros de Google les resultaba difícil poner las manos en los modelos de IA más avanzados de la empresa, dijo otro antiguo empleado. A menudo, los ingenieros empezaban la lluvia de ideas jugando con los modelos de IA generativa de otras empresas para explorar las posibilidades de la tecnología antes de encontrar la manera de hacerla realidad dentro de la burocracia, dijo el antiguo empleado.
“Definitivamente, veo algunos cambios positivos derivados del ‘código rojo’ y de OpenAI pulsando los botones de Google”, dijo Gaurav Nemade, exjefe de producto de Google que trabajó en sus esfuerzos de chatbot hasta 2020. “¿Pueden realmente ser los líderes y desafiar a OpenAI en su propio juego?”. Acontecimientos recientes (como la posibilidad de que Samsung sustituya a Google por Bing, de Microsoft, cuya tecnología está basada en ChatGPT, como motor de búsqueda en sus dispositivos) han puesto de relieve la ventaja de ser el primero en el mercado en estos momentos.
Algunos miembros de la empresa afirman que creen que Google ha realizado suficientes comprobaciones de seguridad con sus nuevos productos de IA generativa, y que Bard es más seguro que los chatbots de la competencia. Pero ahora que la prioridad es lanzar productos de IA generativa por encima de todo, los empleados de ética dijeron que se ha vuelto inútil alzar la voz.
Los equipos que trabajan en las nuevas funciones de IA se han dividido en silos, lo que dificulta que los Googlers de base vean la imagen completa de en qué está trabajando la empresa. Las listas de correo y los canales internos de la empresa, que antes eran lugares donde los empleados podían expresar abiertamente sus dudas, se han restringido con directrices comunitarias con el pretexto de reducir la toxicidad; varios empleados dijeron que veían las restricciones como una forma de vigilar la expresión.
“Existe una gran frustración, una gran sensación de “¿qué estamos haciendo? dijo Mitchell. “Aunque no haya directivas firmes en Google para dejar de hacer un trabajo ético, el ambiente es tal que las personas que hacen ese tipo de trabajo se sienten realmente sin apoyo y, en última instancia, probablemente harán menos buen trabajo por ello”.
Cuando la dirección de Google aborda públicamente los problemas éticos, tiende a hablar de escenarios futuros hipotéticos sobre una tecnología todopoderosa que no puede ser controlada por los seres humanos (una postura que ha sido criticada por algunos en este campo como una forma de marketing) en lugar de los escenarios cotidianos que ya tienen potencial para ser perjudiciales.
El-Mahdi El-Mhamdi, antiguo investigador científico de Google, declaró que abandonó la empresa en febrero por su negativa a abordar directamente las cuestiones éticas de la IA. A finales del año pasado, fue coautor de un artículo que demostraba que era matemáticamente imposible que los modelos fundacionales de IA fueran grandes, robustos y preservaran la privacidad.
Afirmó que la empresa planteó dudas sobre su participación en la investigación utilizando su afiliación corporativa. En lugar de pasar por el proceso de defender su trabajo, dijo que se ofreció voluntario para abandonar la afiliación con Google y utilizar en su lugar sus credenciales académicas.
“Si quieres seguir en Google, tienes que servir al sistema y no contradecirlo”, dijo El-Mhamdi.
Con la asistencia de Morwenna Coniam, Rachel Metz, Olivia Solon, Lynn Doan y Dina Bass.
Lea más en Bloomberg.vom