Para Tesla, Facebook y otros, fallas de IA son cada vez más difíciles de ignorar

Por

Bloomberg — ¿Qué tienen en común el cofundador de Facebook Inc., Mark Zuckerberg, y el director ejecutivo de Tesla Inc., Elon Musk? Ambos están lidiando con grandes problemas que se derivan, al menos en parte, de confiar en los sistemas de inteligencia artificial (IA) que no han funcionado bien. Zuckerberg está lidiando con algoritmos que no logran detener la propagación de contenido dañino; Musk con un software que aún no ha conducido un coche de la forma que ha prometido con frecuencia.

Hay una lección que aprender de sus experiencias: la IA aún no está lista para el horario de máxima audiencia. Además, es difícil saber cuándo será. Las empresas deberían considerar centrarse en cultivar datos de alta calidad, muchos de ellos y contratar personas para hacer el trabajo que la IA no está preparada para hacer.

Diseñados para emular libremente el cerebro humano, los sistemas de inteligencia artificial de aprendizaje profundo pueden detectar tumores, conducir automóviles y escribir textos, mostrando resultados espectaculares en un entorno de laboratorio. Pero ahí está el truco. Cuando se trata de usar la tecnología en el impredecible mundo real, la IA a veces se queda corta. Eso es preocupante cuando se promociona para su uso en aplicaciones de alto riesgo como la atención médica.

Los riesgos también son peligrosamente altos para las redes sociales, donde el contenido puede influir en las elecciones y alimentar trastornos de salud mental, como se reveló en una reciente exposición de documentos internos de un denunciante. Pero la fe de Facebook en la inteligencia artificial es clara en su propio sitio, donde a menudo destaca los algoritmos de aprendizaje automático antes de mencionar su ejército de moderadores de contenido. Zuckerberg también le dijo al Congreso en 2018 que las herramientas de inteligencia artificial serían “la forma escalable” de identificar contenido dañino. Esas herramientas hacen un buen trabajo al detectar desnudos y contenido relacionado con terroristas, pero aún tienen dificultades para detener la propagación de información errónea .

El problema es que el lenguaje humano cambia constantemente. Los activistas en contra de las vacunas utilizan trucos como escribir “va ((una” para evitar ser detectados, mientras que los vendedores privados de armas publican imágenes de estuches vacíos en Facebook Marketplace con una descripción de “PM yo”. Esto engaña a los sistemas diseñados para detener contenido que infrinja las reglas y para empeorar las cosas, la IA a menudo también recomienda esas publicaciones.

No es de extrañar que los aproximadamente 15.000 moderadores de contenido contratados para respaldar los algoritmos de Facebook estén sobrecargados de trabajo. El año pasado, un estudio de la Escuela de Negocios Stern de la Universidad de Nueva York recomendó que Facebook duplicara esos trabajadores a 30,000 para monitorear las publicaciones correctamente si la IA no está a la altura de la tarea. Cathy O’Neil, autora de Weapons of Math Destruction ha dicho a quemarropa que la IA de Facebook “no funciona”. Zuckerberg, por su parte, ha dicho a los legisladores que es difícil para la IA moderar publicaciones debido a los matices del discurso.

La exagerada promesa de Musk de la IA es prácticamente legendaria. En 2019, dijo a los inversores de Tesla que “se sentía muy seguro” de que habría un millón de Model 3 en las calles como robotaxis sin conductor . Su plazo: 2020. En cambio, los clientes de Tesla actualmente tienen el privilegio de pagar US$10,000 por un software especial que, algún día (¿o quién sabe?) brindará capacidades de conducción totalmente autónomas. Hasta entonces, los coches pueden aparcar, cambiar de carril y entrar en la autopista por sí mismos con algún error grave ocasional . Musk admitió recientemente en un tweet que la tecnología de conducción autónoma generalizada era “un problema difícil”.

Más sorprendente: la inteligencia artificial también se ha quedado corta en la atención médica, un área que ha sido una de las más prometedores para la tecnología. A principios de este año, un estudio en Nature analizó docenas de modelos de aprendizaje automático diseñados para detectar señales de Covid-19 en radiografías y tomografías computarizadas. Encontró que ninguno podía usarse en un entorno clínico debido a varios defectos. Otro estudio publicado el mes pasado en el British Medical Journal encontró que el 94% de los sistemas de inteligencia artificial que buscaban signos de cáncer de mama eran menos precisos que el análisis de un solo radiólogo. “Ha habido mucho entusiasmo de que [el escaneo de IA en radiología] es inminente, pero el entusiasmo se adelantó un poco a los resultados”, dice Sian Taylor-Phillips, profesor de salud de la población en la Universidad de Warwick que también dirigió el estudio.

Los asesores gubernamentales se basarán en sus resultados para decidir si tales sistemas de IA están haciendo más bien que mal y, por lo tanto, están listos para su uso. En este caso, el daño no parece obvio. Después de todo, los sistemas impulsados por IA para detectar el cáncer de mama están diseñados para ser demasiado cautos y es mucho más probable que den falsas alarmas a que pierdan señales de un tumor. Pero incluso un pequeño aumento porcentual en la tasa de recordatorios para la detección del cáncer de mama, que es del 9% en los Estados Unidos y del 4% en el Reino Unido, significa un aumento de la ansiedad para miles de mujeres debido a las falsas alarmas. “Eso significa que aceptamos daños para las mujeres examinadas solo para que podamos implementar nueva tecnología”, dice Taylor-Phillips.

Parece que los errores no se limitan a unos pocos estudios. “Hace unos años había muchas promesas y mucho entusiasmo acerca de que la IA era un primer paso para la radiología”, dice Kathleen Walch, socia gerente de la firma de inteligencia de mercado de IA Cognalytica. “Lo que hemos empezado a ver es que la IA no está detectando estas anomalías a un ritmo que sería útil”.

Aún así, ninguna de estas señales de alerta ha detenido una avalancha de dinero que se destina a la IA. La inversión global de capital de riesgo en nuevas empresas de inteligencia artificial se ha disparado en el último año luego de un aumento constante, según PitchBook Data Inc., que rastrea los mercados de capital privado. Las menciones a la “inteligencia artificial” en las llamadas de ganancias corporativas han aumentado constantemente durante la última década y se han negado a disminuir, según un análisis de las transcripciones de Bloomberg.

Con toda esta inversión, ¿por qué la IA no está donde esperábamos que estuviera? Parte del problema es la confusión del marketing tecnológico. Pero los propios científicos de IA también pueden ser en parte culpables.

Los sistemas se basan en dos cosas: un modelo funcional y datos subyacentes para entrenar ese modelo. Para construir una buena IA, los programadores deben dedicar la mayor parte de su tiempo, quizás alrededor del 90%, a los datos: recopilarlos, categorizarlos y limpiarlos. Es un trabajo aburrido y difícil. Podría decirse que también es ignorado por la comunidad de aprendizaje automático en la actualidad, ya que los científicos le dan más valor y prestigio a las complejidades de las arquitecturas de IA, o cuán elaborado es un modelo.

Un resultado: los conjuntos de datos más populares utilizados para construir sistemas de inteligencia artificial, como la visión por computadora y el procesamiento del lenguaje, están llenos de errores , según un estudio reciente realizado por científicos del MIT. Un enfoque cultural en la construcción de modelos elaborados está, en efecto, frenando a la IA.

Pero hay señales alentadoras de cambio. Los científicos de Google, de Alphabet Inc., se quejaron recientemente sobre el problema del modelo versus los datos en un documento de conferencia y sugirieron formas de crear más incentivos para solucionarlo.

Las empresas también están cambiando su enfoque de los proveedores de “IA como servicio” que prometen realizar tareas directamente, como por arte de magia. En cambio, están gastando más dinero en software de preparación de datos, según Brendan Burke, analista senior de PitchBook. Él dice que las empresas de inteligencia artificial pura como Palantir Technologies Inc. y C3.ai Inc. “han logrado resultados menos que sobresalientes”, mientras que las empresas de ciencia de datos como Databricks Inc. “están logrando valuaciones más altas y resultados superiores”.

Está bien que la IA se equivoque ocasionalmente en escenarios de bajo riesgo, como recomendaciones de películas o desbloquear un teléfono inteligente con el rostro. Pero en áreas como la atención médica y el contenido de las redes sociales, aún necesita más capacitación y mejores datos. En lugar de intentar hacer que la IA funcione hoy, las empresas deben sentar las bases con datos y personas para que funcione en un futuro (con suerte) no muy lejano.