Bloomberg Opinión — Mientras Facebook afronta otro escándalo, esta vez alimentado por su investigación interna sobre los efectos de Instagram, me gustaría centrarme en algo ligeramente diferente que también debería ser un escándalo: la calidad de esa investigación interna.
Facebook se ha estado rechazando una serie de artículos publicados en The Wall Street Journal, que citan un informe interno filtrado que sugería que Instagram daña a los adolescentes al fomentar inseguridades en torno a la “comparación social” y, a veces, incluso pensamientos suicidas. En su blog público, la empresa publicó un artículo titulado “Lo que nuestra investigación dice realmente sobre el bienestar de los adolescentes e Instagram”. Señaló los aspectos en los que la aplicación resultaba benigna o ligeramente positiva, y también buscó minimizar la investigación, señalando que “no medía las relaciones causales entre Instagram y los problemas del mundo real” y que, en ocasiones, “se basaba en las aportaciones de solo 40 adolescentes”.
Facebook tiene razón en un punto: su investigación interna no demuestra gran cosa. No es así como se hace ciencia. Uno nunca se basa en un solo estudio para determinar una relación, en parte porque cualquier experimento único implica demasiadas opciones que limitan su aplicabilidad. ¿Se estudia a los adolescentes o a los adultos jóvenes? ¿Hombres o mujeres? ¿Cómo se llega a ellos? ¿Qué preguntas hace? ¿Se hace un seguimiento después de seis meses o a los doce? Y eso es sólo para el diseño, por no hablar del análisis. Sólo cuando múltiples estudios con diferentes enfoques obtienen la misma respuesta se puede empezar a sacar conclusiones sólidas.
Dicho esto, se puede llegar a una conclusión bastante sólida observando la forma en que Facebook ha realizado la investigación a lo largo de los años: tiene miedo de saber la verdad. Después de todo, ¿por qué no hacer más estudios? Si es posible que su producto esté llevando a las mujeres jóvenes a suicidarse, ¿no querría explorar más, al menos para limpiar su nombre? ¿Por qué no dejar que investigadores externos utilicen sus datos para obtener una mejor respuesta más rápidamente? En cambio, Facebook sólo permite pequeños estudios internos e intenta mantenerlos bajo llave. Incluso si se filtran, la empresa mantiene la negación: Los resultados están lejos de ser concluyentes.
Facebook no está solo en su aversión al autoconocimiento. Algo similar ocurrió en Google hace no mucho tiempo, cuando investigadores internos tuvieron la audacia de creerse capaces de hacer un trabajo crítico, escribiendo un artículo sobre cómo los grandes modelos lingüísticos como los que se utilizan en la compañía pueden ser perjudiciales para el medio ambiente e incluso racistas. En ese caso, Google despidió a dos de los fundadores de su equipo de Inteligencia Artificial Ética, Timnit Gebru y Meg Mitchell.
No soy tan ingenua como para pensar que la vergüenza pública obligará a las grandes empresas tecnológicas a permitir el acceso a la ciencia real sobre el impacto de sus productos. Hacer que eso suceda es un trabajo para el Congreso o la Comisión Federal de Comercio (FTC). Mientras tanto, a medida que empresas como Facebook y Google recorren los departamentos académicos con ofertas de trabajo para doctores recién graduados e incluso para profesores experimentados, los que decidan aceptar el dinero deberían reconocer que lo que están haciendo no es una investigación científica, y seguir filtrando lo que puedan.