Las redes sociales ya no pueden esconder sus problemas en una caja negra

Por

Bloomberg Opinión — Hay una buena razón para desvelar los secretos de los gigantes de las redes sociales. A lo largo de la última década, los gobiernos han visto, impotentes, cómo sus procesos democráticos se veían perturbados por la desinformación y el discurso de odio en sitios como Facebook, de Meta Platforms Inc, (META), YouTube, de Alphabet Inc (GOOGL), y Twitter Inc (TWTR). Ahora algunos gobiernos se preparan para la rendición de cuentas.

Europa y el Reino Unido están preparando leyes que frenarán los contenidos problemáticos que las empresas de redes sociales han permitido se hagan virales. Ha habido mucho escepticismo sobre su capacidad para mirar bajo el capó de empresas como Facebook. Al fin y al cabo, los reguladores carecen de los conocimientos técnicos, la mano de obra y los salarios de los que presumen las grandes empresas tecnológicas. Y hay otro problema técnico: los sistemas de inteligencia artificial que utilizan las empresas tecnológicas son notoriamente difíciles de descifrar.

Pero los detractores deberían mantener la mente abierta. Se están desarrollando nuevas técnicas que facilitarán el análisis de estos sistemas. El llamado problema de la caja negra de la IA no es tan impenetrable como muchos piensan.

La IA impulsa la mayor parte de la acción que vemos en Facebook o YouTube y, en particular, los sistemas de recomendación que alinean las publicaciones que van a tu feed de noticias, o los vídeos que deberías ver a continuación, todo para mantenerte en la plataforma. Millones de datos se utilizan para entrenar el software de IA, lo que le permite hacer predicciones vagamente similares a las de los humanos. Lo difícil, para los ingenieros, es entender cómo la IA toma una decisión en primer lugar. De ahí el concepto de caja negra.

Considere imágenes de un perro y un zorro:

Probablemente pueda decir en pocos milisegundos qué animal es el zorro y cuál es el perro. ¿Pero puede explicar cómo lo sabe? A la mayoría de las personas les costaría articular qué aspecto de la nariz, las orejas o la forma de la cabeza informan la decisión. Sin embargo, saben con certeza cuál es la imagen del zorro.

Una paradoja similar afecta a los modelos de aprendizaje automático. A menudo dan la respuesta correcta, pero sus diseñadores no pueden explicar cómo. Eso no los hace completamente inescrutables. Está surgiendo una pequeña pero creciente industria que vigila el funcionamiento de estos sistemas. Su tarea más popular: mejorar el rendimiento de un modelo de IA. Las empresas que los utilizan también quieren asegurarse de que su IA no está tomando decisiones sesgadas cuando, por ejemplo, examinan las solicitudes de empleo o conceden préstamos.

He aquí un ejemplo de cómo funciona una de estas startups. Una empresa financiera recurrió recientemente a la startup israelí Aporia para comprobar si una campaña de captación de estudiantes estaba funcionando. Aporia, que emplea tanto software como auditores humanos, descubrió que el sistema de IA de la empresa estaba cometiendo errores, concediendo préstamos a algunos jóvenes que no debería haber concedido, o reteniendo préstamos a otros innecesariamente. Cuando Aporia examinó con más detenimiento, descubrió el motivo: Los estudiantes constituían menos del 1% de los datos con los que se había entrenado la IA de la empresa.

En muchos sentidos, se ha exagerado la fama de impenetrabilidad de la IA, según el director general de Aporia, Liran Hosan. Con la tecnología adecuada, incluso se pueden descifrar -potencialmente- los complicadísimos modelos lingüísticos en los que se basan las empresas de redes sociales, en parte porque en informática incluso el lenguaje puede representarse mediante un código numérico. Descubrir cómo un algoritmo puede estar difundiendo la incitación al odio, o fallar a la hora de contenerla, es sin duda más difícil que detectar errores en los datos numéricos que representan los préstamos, pero es posible. Y los reguladores europeos van a intentarlo.

Según un portavoz de la Comisión Europea, la Ley de Servicios Digitales obligará a las plataformas a someterse a auditorías una vez al año para evaluar el grado de “riesgo” que sus algoritmos representan para los ciudadanos. Esto puede obligar a veces a las empresas a proporcionar un acceso sin precedentes a información que muchos consideran secretos comerciales: código, datos de entrenamiento y registros de procesos. (La Comisión dijo que sus auditores estarían sujetos a normas de confidencialidad).

Pero supongamos que los organismos de control europeos no pudieran ahondar en el código de Facebook o YouTube. Supongamos que no pueden indagar en los algoritmos que deciden qué videos o publicaciones se recomiendan. Todavía podrían hacer muchas cosas.

Manoel Ribeiro, estudiante de doctorado en la Escuela Politécnica Federal de Lausana (Suiza), publicó en 2019 un estudio en el que él y sus coautores rastrearon cómo ciertos visitantes de YouTube se radicalizaban con contenidos de extrema derecha. No necesitó acceder a ningún código de YouTube para hacerlo. Los investigadores simplemente observaron los comentarios en el sitio para ver a qué canales acudían los usuarios a lo largo del tiempo. Fue como rastrear las huellas digitales: un trabajo minucioso, pero que en última instancia reveló cómo una fracción de los usuarios de YouTube se veían atraídos por los canales supremacistas blancos a través de influencers que actuaban como una droga de entrada.

El estudio de Ribeiro forma parte de un conjunto más amplio de investigaciones que han rastreado los efectos secundarios psicológicos de Facebook o YouTube sin necesidad de entender sus algoritmos. Aunque ofrecen perspectivas relativamente superficiales del funcionamiento de las plataformas de medios sociales, pueden ayudar a los reguladores a imponer obligaciones más amplias a las plataformas. Éstas pueden ir desde la contratación de responsables de cumplimiento para garantizar que una empresa cumple las normas, hasta la entrega de muestras precisas y aleatorias a los auditores sobre el tipo de contenido que atrae a la gente.

Se trata de una perspectiva radicalmente diferente al secretismo con el que las grandes empresas tecnológicas han podido operar hasta ahora. Y supondrá tanto una nueva tecnología como nuevas políticas. Para los reguladores, podría ser una combinación ganadora.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.