Bloomberg — Durante años, Facebook ha luchado contra acusaciones de que sus plataformas desempeñan un papel enorme en la difusión de información falsa y contenido dañino que ha alimentado conspiraciones, divisiones políticas y desconfianza en la ciencia, incluidas las vacunas contra el Covid-19.
Sin embargo, las investigaciones, los análisis y los comentarios contenidos en una gran cantidad de documentos internos indican que los propios empleados de la empresa han estudiado y debatido ampliamente la cuestión de la desinformación y el contenido perjudicial y muchos de ellos han llegado a la misma conclusión: los propios productos y políticas de Facebook empeoran el problema.
En 2019, por ejemplo, Facebook creó una cuenta falsa de una madre ficticia de 41 años de Carolina del Norte llamada Carol, que sigue a Donald Trump y a Fox News, para estudiar la desinformación y los riesgos de polarización en sus sistemas de recomendación. En un día, la cuenta de la mujer fue dirigida a “polarizar” contenido y en una semana, a conspiraciones, incluida QAnon.
“El contenido de esta cuenta (¡seguido principalmente a través de varios sistemas de recomendación!) pasó a un estado polarizador bastante preocupante en un período extremadamente corto”, según un memorando de Facebook que analiza la cuenta ficticia de la mujer estadounidense. Cuando se llevó a cabo un experimento similar en la India, un relato de prueba que representaba a una mujer de 21 años se dirigió en poco tiempo a imágenes de violencia gráfica e imágenes manipuladas de ataques aéreos de la India en Pakistán.
Los memorandos, informes, debates internos y otros ejemplos contenidos en los documentos sugieren que algunas de las características principales de los productos de Facebook contribuyen a la difusión de información falsa y polarizante a nivel mundial y que las sugerencias para solucionarlas pueden enfrentarse a importantes desafíos internos. Los esfuerzos de Facebook por sofocar la desinformación y los contenidos nocivos, por su parte, se han visto a veces socavados por consideraciones políticas, indican los documentos.
“Tenemos pruebas de diversas fuentes de que el discurso de odio, el discurso político divisivo y la desinformación en Facebook y la familia de aplicaciones están afectando a las sociedades de todo el mundo”, señaló un empleado en una discusión interna sobre un informe titulado “¿Qué es el daño colateral?” “También tenemos pruebas convincentes de que los mecanismos de nuestro producto principal, como la viralidad, las recomendaciones y la optimización del tiempo comprometido, son una parte significativa de por qué estos tipos de discurso florecen en la plataforma”.
Los documentos fueron revelados a la Comisión de Bolsa y Valores de EE.UU. (SEC por sus siglas en inglés) y proporcionados al Congreso en forma editada por el asesor legal de la denunciante Frances Haugen. Las versiones editadas fueron obtenidas por un consorcio de organizaciones de noticias, incluida Bloomberg. Los documentos representan una selección de información producida en su mayoría para el público interno de Facebook. Los nombres de los empleados están censurados, y no siempre está claro cuándo se crearon. Algunos de los documentos han sido divulgados previamente por el Wall Street Journal, BuzzFeed News y otros medios de comunicación.
Facebook ha rechazado las acusaciones iniciales, señalando que la “selección curada” de documentos de Haugen “de ninguna manera puede usarse para sacar conclusiones justas sobre nosotros”. El CEO de Facebook, Mark Zuckerberg, dijo que las acusaciones de que su empresa antepone las ganancias a la seguridad del usuario “simplemente no son ciertas”.
“Cada día nuestros equipos tienen que equilibrar la protección de la capacidad de miles de millones de personas para expresarse abiertamente con la necesidad de mantener nuestra plataforma como un espacio seguro y positivo”, dijo Joe Osborne, un portavoz de Facebook en un comunicado. “Seguimos haciendo mejoras significativas para hacer frente a la difusión de la desinformación y el contenido dañino. Sugerir que fomentamos el mal contenido y que no hacemos nada es simplemente falso”.
La cuenta experimental de la mujer de Carolina del Norte es solo el tipo de investigación que la compañía hace para mejorar y ayudar a informar decisiones como eliminar QAnon de la plataforma, según un comunicado de Facebook. El aumento de la polarización es anterior a las redes sociales y, a pesar de una seria investigación académica, no hay mucho consenso, dijo la compañía, y agregó que la evidencia existente no respalda la idea de que Facebook, o las redes sociales en general, sean la causa principal.
Aun así, aunque el gigante de las redes sociales ha hecho indudables progresos a la hora de desmantelar y revelar la existencia de campañas de injerencia orquestadas por gobiernos extranjeros (y ha colaborado con organizaciones externas para hacer frente a reclamaciones falsas), a menudo no ha actuado contra movimientos políticos emergentes como QAnon o la desinformación sobre vacunas hasta que se han extendido ampliamente, según los críticos.
Los documentos reflejan una cultura empresarial que valora el debate abierto y el desacuerdo y que se rige por la incesante recopilación y análisis de datos. Pero el resultado, que a menudo deja al descubierto las deficiencias de la empresa en términos descarnados, podría suponer un serio desafío en el futuro: una denuncia presentada por un denunciante ante la SEC, que se incluye en el caché de documentos, alega que “Facebook sabe que sus productos empeoran la incitación al odio y la desinformación” y que ha tergiversado este hecho en repetidas ocasiones ante los inversores y el público.
Esas supuestas tergiversaciones incluyen la comparecencia de Zuckerberg en marzo ante el Congreso, en la que expresó su confianza en que su empresa compartía poca culpa por el empeoramiento de la división política en Estados Unidos y en todo el mundo. “Ahora, algunas personas dicen que el problema es que las redes sociales nos están polarizando”, dijo Zuckerberg a los legisladores. “Pero eso no está claro en absoluto en las pruebas o investigaciones”.
Pero los documentos suelen contar una historia diferente.
“Sabemos desde hace más de un año que nuestros sistemas de recomendación pueden llevar muy rápidamente a los usuarios por el camino de las teorías y grupos conspirativos”, escribió un empleado de Facebook en su último día de agosto de 2020. Citando ejemplos de salvaguardas que la compañía había revertido o no había implementado, el empleado escribió: “Durante el tiempo que dudamos, he visto a gente de mi ciudad natal ir cada vez más lejos en la madriguera de QAnon y en la conspiración anti-mascarillas/anti-vacunas contra el Covid-19 en FB. Ha sido doloroso de observar”.
Facebook dijo en su comunicado que seleccionar anécdotas de empleados que se van no cuenta la historia de cómo se producen los cambios en la empresa. Los proyectos pasan por rigurosas revisiones y debates, según el comunicado, para que Facebook pueda estar seguro de cualquier cambio potencial y de su impacto en la gente. Al final, la empresa acabó aplicando muchas de las ideas planteadas en esta historia, según el comunicado.
Al igual que otras grandes plataformas de redes sociales, Facebook lleva años luchando contra el problema de la información falsa, en parte porque no contiene necesariamente calumnias o frases concretas que puedan ser fácilmente filtradas. Además, averiguar qué publicaciones son falsas y potencialmente dañinas no es una ciencia exacta, un problema que se complica aún más por los diferentes idiomas y contextos culturales.
Facebook se basa en la inteligencia artificial para escanear su amplia base de usuarios en busca de posibles problemas y luego envía las publicaciones marcadas a un conjunto de organizaciones de comprobación de hechos repartidas por todo el mundo. Si los verificadores de hechos califican algo como falso, Facebook añade una etiqueta de advertencia y reduce la distribución para que menos personas puedan verlo, según un post de marzo de 2021 de Guy Rosen, vicepresidente de integridad. Los tipos de desinformación más graves, incluidas las afirmaciones falsas sobre las vacunas contra el Covid-19, pueden ser eliminados.
Es un proceso que se complica por el volumen aplastante de casi 3.000 millones de usuarios.
Facebook ha proporcionado algunos detalles sobre las formas en que ha logrado frenar la desinformación. Por ejemplo, desactivó más de 1.300 millones de cuentas entre octubre y diciembre de 2020, en medio de unas polémicas elecciones presidenciales en Estados Unidos y durante los últimos tres años, la compañía eliminó más de 100 redes por comportamiento coordinado no auténtico, cuando grupos de páginas o personas trabajan juntas para engañar a las personas, según la publicación de Rosen.
Y, sin embargo, aparte de los desafíos de tratar de monitorear un volumen colosal de datos, el sistema de la compañía para filtrar y eliminar reclamos falsos y potencialmente dañinos tiene fallas significativas, según los documentos. Por ejemplo, las preocupaciones políticas pueden influir en la forma en que Facebook reacciona a las publicaciones falsas.
En un incidente en septiembre de 2019, la decisión de eliminar un video publicado por el grupo antiabortista Live Action fue revocada “después de varias llamadas de senadores republicanos.” El video, que afirmaba incorrectamente que “el aborto nunca fue médicamente necesario”, se volvió a publicar después de que Facebook declarara que “no era elegible para la verificación de hechos”, según uno de los documentos.
“Un problema central de Facebook es que una organización política es responsable tanto de las normas de la plataforma como de mantener contentos a los gobiernos”, dijo un antiguo empleado según un documento de diciembre de 2020. “Es muy difícil tomar decisiones de producto basadas en principios abstractos cuando también se te mide por tu capacidad de evitar que actores innatamente políticos regulen/investiguen/procesen a la compañía”.
Además, los políticos, los famosos y algunos otros usuarios especiales están exentos de muchos de los procedimientos de revisión de contenidos de la empresa, mediante un proceso llamado “lista blanca”. Por ejemplo, los vídeos del presidente Donald Trump fueron marcados repetidamente en Instagram por incitación a la violencia en el período previo a los disturbios del Capitolio del 6 de enero, indican los documentos.
“Al proporcionar esta exención especial a los políticos, estamos exponiendo conscientemente a los usuarios a la información errónea de que tenemos los procesos y recursos para mitigar”, según un post de un empleado de 2019 titulado “La lista blanca política contradice los principios fundamentales de Facebook”.
Los empleados de Facebook citan repetidamente políticas y productos de la empresa que creen que han contribuido a la desinformación y a las conductas perjudiciales, según los documentos. Sus quejas están a veces respaldadas por investigaciones o propuestas para solucionar o minimizar los problemas.
Por ejemplo, los empleados han citado el hecho de que la desinformación contenida en los comentarios de otras publicaciones se examina con mucho menos cuidado que las propias publicaciones, a pesar de que los comentarios tienen una gran influencia sobre los usuarios.
El “riesgo agregado” de las dudas sobre las vacunas en los comentarios puede ser mayor que en las publicaciones, “y sin embargo hemos invertido poco en la prevención de las dudas sobre las vacunas en los comentarios en comparación con nuestra inversión en el contenido”, concluyó un informe interno titulado “Las dudas sobre las vacunas son dos veces más frecuentes en los comentarios sobre las vacunas en inglés en comparación con las publicaciones sobre las vacunas en inglés”.
En su declaración, Facebook dijo que degradó los comentarios que coinciden con la desinformación conocida, que son compartidos por infractores reincidentes o que violan sus normas comunitarias.
Muchas de las sugerencias de los empleados pertenecen a los algoritmos de Facebook, incluyendo un cambio en 2018 que pretendía fomentar interacciones sociales más significativas pero que terminó alimentando más contenido provocativo y de baja calidad.
La compañía cambió la clasificación de su News Feed para priorizar las interacciones sociales significativas y despriorizar cosas como los videos virales, según su declaración. Este cambio ha provocado una disminución del tiempo que se pasa en Facebook, según el comunicado, que señala que no es el tipo de cosa que una empresa haría si simplemente intentara que la gente utilizara más el servicio.
En encuestas internas, los usuarios de Facebook afirman que su experiencia en la plataforma ha empeorado desde el cambio y dicen que no les ofrece el tipo de contenido que preferirían ver. Los partidos políticos de Europa pidieron a Facebook que suspendiera su uso y varias pruebas realizadas por la empresa indican que conducía rápidamente a los usuarios a contenidos que apoyaban teorías conspirativas o denigraban a otros grupos.
“Mientras sigamos optimizando para el compromiso general y no únicamente lo que creemos que los usuarios individuales valorarán, tenemos la obligación de considerar qué efecto tiene la optimización de los resultados comerciales en las sociedades en las que participamos”, argumentó un empleado en un informe llamado “Somos responsables del contenido viral”, publicado en diciembre de 2019.
Del mismo modo, después de que The New York Times publicara un artículo de opinión en enero de 2021, poco después del asalto al Capitolio de EE.UU., en el que se explicaba cómo los algoritmos de Facebook atraen a los usuarios a compartir opiniones extremas recompensándoles con “me gusta” y “compartir”, un empleado señaló que el artículo reflejaba otras investigaciones y lo calificó como “un efecto secundario problemático de la arquitectura de Facebook en su conjunto.”
“En mi primer informe ‘Qurioso sobre QAnon’, recomendé eliminar/no permitir métricas sociales como los likes como una forma de eliminar el “golpe” que supone ver cómo crecen esos likes”.
Instagram también había experimentado previamente con la eliminación de los likes de sus publicaciones, lo que culminó con el anuncio del 26 de mayo de que la compañía comenzaría a dar a los usuarios de la plataforma la posibilidad de ocultar los likes si así lo deseaban.
Los documentos proporcionan algunos detalles, aunque incompletos, de los esfuerzos de la compañía para reducir la difusión de información errónea y contenido dañino. En una revisión bibliográfica publicada en enero de 2020, el autor detalló cómo la empresa ya prohibía “a los infractores más graves y reincidentes” y limitaba “el acceso a las funciones propensas al abuso” para desalentar la distribución de contenido dañino.
Se asignaron equipos dentro de la compañía para buscar formas de hacer mejoras, con al menos dos documentos que indican que se había creado un grupo de trabajo para considerar “grandes ideas para reducir la prevalencia de contenido malo en el News Feed” para centrarse en “acciones suaves” que se detuvieron en la eliminación de contenido.
No está claro cuántas de esas recomendaciones se instituyeron y, de ser así, si tuvieron éxito.
En la nota de despedida de agosto de 2020, el empleado de Facebook elogió a sus colegas como “increíbles, brillantes y extraordinarios”. Pero el empleado también lamentó cómo muchos de sus mejores esfuerzos para frenar la desinformación y otros “contenidos violentos” habían sido “sofocados o severamente restringidos por los principales responsables de la toma de decisiones, a menudo basados en el temor a las respuestas del público y de las partes interesadas en la política.”
“Si bien se requieren (con razón) montañas de evidencia para respaldar una nueva intervención, no se requiere ninguna para matar (o limitar severamente) una”, escribió el empleado.
Ver más: “Facebook Papers”: 5 revelaciones clave de la filtración de documentos