Bloomberg — Algunos de los empleadores más grandes de Estados Unidos, incluidos General Motors, IBM y Meta, han formado una nueva empresa con un objetivo loable: garantizar que la inteligencia artificial no perpetúe ni empeore la discriminación en la contratación. La mera existencia de Data & Trust Alliance, como se le llama, es una buena noticia, pero debe ser mucho mejor.
La contratación ha cambiado radicalmente en las últimas dos décadas. El reclutamiento en línea permite que muchas más personas se postulen para cada vacante, lo que requiere que los empleadores clasifiquen más solicitudes. Inicialmente, las empresas se limitaban a descartar los CVs que carecían de ciertas palabras clave o habilidades, pero ahora utilizan cada vez más inteligencia artificial más sofisticada desde el punto de vista matemático. Por lo general, estos algoritmos tienen licencia de proveedores de software especializados, que anuncian sus productos como imparciales, justos y objetivos.
En realidad, la inteligencia artificial tiende a afianzar la discriminación, por ejemplo, al calificar a los candidatos en función de los datos de una historia contaminada, en la que las mujeres y las minorías se han enfrentado a obstáculos mucho mayores para lograr el éxito. Como resultado, es menos probable que las personas con nombres distintivamente negros obtengan entrevistas de trabajo, y los estudios muestran consistentemente que no hay cambios en la discriminación a lo largo del tiempo.
Hasta la fecha, las empresas estadounidenses han tratado en gran medida de evitar el problema: si no tenían ni idea de cómo funcionaban realmente los algoritmos de sus proveedores, según la lógica, podrían mantener una negación plausible. Pero esa no es una estrategia viable a largo plazo. Con el tiempo, los reguladores se darán cuenta y empezarán a aplicar las leyes contra la discriminación.
La aparición de Data & Trust Alliance sugiere que los grandes empresarios están cambiando de táctica, buscando adelantarse a la normativa vigente. Su primera iniciativa, “Algorithmic Bias Safeguards for Workforce” (Salvaguardias de sesgos algorítmicos para la fuerza de trabajo), incluye una lista de preguntas diseñadas para ayudar a los administradores de recursos humanos a juzgar la eficacia de los proveedores a la hora de supervisar y abordar los prejuicios en sus algoritmos de contratación.
Yo tengo mi propio sesgo: Dirijo una empresa de auditoría de algoritmos, por lo que salgo ganando si las empresas gastan más dinero en el escrutinio de la inteligencia artificial que utilizan. Dicho esto, mi experiencia trabajando con algoritmos de contratación me permite ver un gran defecto en el enfoque de la alianza: No establece estándares específicos y vinculantes. Sin umbrales claros para definir la discriminación, las llamadas salvaguardias no protegerán realmente contra nada.
Incluso donde han surgido estándares de la industria, son bastante horribles. Consideremos la regla de los cuatro quintos. Dice que el índice de éxito de las categorías protegidas, como las mujeres y las minorías, no debe ser inferior a cuatro quintos del de la categoría de referencia. Si, por ejemplo, el 5% de los candidatos blancos pasan un determinado filtro de contratación, la tasa de los candidatos negros no debería ser inferior al 4%. Pero sigue siendo una gran diferencia. Si los algoritmos se acercan al límite, como suele suceder en esta era de “optimización”, el proceso de contratación seguirá siendo muy racista.
Hay una forma mejor. Implica involucrar a más personas afectadas por algoritmos de contratación en el establecimiento de estándares, como, por ejemplo, el Consorcio de Derechos de los Trabajadores ha hecho para las fábricas de explotación. Fundada en 2000 por estudiantes indignados por las condiciones laborales en las cadenas de suministro internacionales, crea estándares vinculantes de derechos humanos para que las sigan las empresas, centrándose en los trabajadores más pobres de las naciones más pobres.
Imagina una organización similar centrada en los algoritmos, que actúe en nombre de los trabajadores de todo el mundo. Podría fomentar un debate entre los empleadores que utilizan los algoritmos y los defensores de los trabajadores que suelen verse perjudicados por los prejuicios. Juntos, podrían elaborar estándares vinculantes que serían mucho más justos y tendrían más probabilidades de obviar la necesidad de un mayor escrutinio regulatorio, que las que podrían elaborar las empresas por su cuenta.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.
Este artículo fue traducida por Estefanía Salinas Concha.