Bloomberg Opinión — Dice el refrán que nuestros ojos son la ventana del alma. Quizá con el tiempo sirvan a un propósito menos romántico, como convertirse en ventanas para ganar dinero.
Investigadores de la Universidad Carnegie Mellon de Pittsburgh, una de las principales instituciones de investigación en inteligencia artificial, se han embarcado en un estudio que utiliza algoritmos de reconocimiento facial para seguir las expresiones de los operadores. Su objetivo: encontrar correlaciones entre los cambios de humor y las oscilaciones del mercado. Si los operadores parecen entusiastas, puede que sea el momento de comprar. ¿Hay más ceños fruncidos de lo habitual? Podría ser el momento de vender. La solicitud de patente provisional estadounidense se presentó el 13 de septiembre de 2022.
“El mercado se rige por las emociones humanas”, afirma Mario Savvides, científico principal del proyecto. “Lo que se nos ocurrió es: ¿podemos abstraer cosas como la expresión o los movimientos como indicaciones tempranas de volatilidad? Todo el mundo se excita, o todo el mundo se encoge de hombros o se rasca la cabeza o se inclina hacia delante... ¿Todo el mundo tuvo una reacción en un plazo de cinco segundos?”.
La fase principal del estudio se desarrollará a lo largo de 12 meses a partir del tercer trimestre de 2023, y en ella participarán unos 70 operadores de empresas de inversión situadas en su mayoría en Estados Unidos. Todos ellos llevarán cámaras montadas en sus ordenadores para grabar sus caras y gestos a lo largo del día, según Savvides. Las cámaras estarán conectadas a un programa informático de Oosto, empresa israelí antes conocida como AnyVision Interactive Technologies Ltd., que espera desarrollar un sistema de alerta de tendencias en los rostros de los operadores o un índice de volatilidad que pueda vender a las empresas de inversión.
Oosto, que fabrica escáneres de reconocimiento facial para aeropuertos y lugares de trabajo, no ha querido dar nombres de las empresas que participan en el estudio, pero ha declarado que éstas tendrán acceso anticipado a cualquier nueva herramienta que surja de la investigación. Las imágenes de cada individuo permanecerán en su propio ordenador o en sus instalaciones físicas; sólo se transmitirán a los investigadores los datos y números que representen sus expresiones y gestos.
La cara de una persona se compone de 68 puntos diferentes que cambian de posición con frecuencia, según Savvides, coautor de un estudio sobre “puntos de referencia” faciales en 2017.
Su sistema también rastreará la mirada de un operador para ver si está hablando con un colega o mirando su pantalla, y notará si sus compañeros están haciendo lo mismo. “Tenemos toda una caja de herramientas de algoritmos de búsqueda que probaremos para ver si se correlacionan con una señal de mercado”, explica Savvides. “Estamos buscando agujas en un pajar”.
Los anunciantes ya utilizan el análisis facial para estudiar lo excitante que resulta una publicidad, mientras que los minoristas lo emplean para ver lo aburridos que están los clientes y los responsables de contratación para determinar, de forma bastante espeluznante, si un candidato a un puesto de trabajo es lo bastante entusiasta.
A primera vista, el estudio del mercado de valores parece más distópico. Los algoritmos de negociación llevan años tratando de aprovechar la información meteorológica, de las redes sociales o de los satélites, pero hay algo un poco degradante en el hecho de que los propios operadores sean explotados para obtener datos. Podría decirse que los investigadores también están metiendo a los operadores en un bucle de retroalimentación interminable en el que sus acciones y decisiones se convierten en derivadas y su notorio comportamiento de rebaño se amplifica. Si creía que el mercado ya se guiaba por una mentalidad de esta naturaleza, esto probablemente lo empeorará, pero así es como funciona el mercado.
“Todo el mundo habla en la calle”, afirma un operador londinense (que no participó en el estudio). Lo que hacemos es debatir ideas y compartir información...”. La comunicación no verbal es enorme”. Hace años, los parqués eran lugares ruidosos donde la gente hablaba por tres o cuatro líneas telefónicas a la vez; ahora muchos se comunican por chats y la conversación es mínima.
Pero el estudio también apunta a otro fenómeno incómodo: El reconocimiento facial ha llegado para quedarse y su primo más controvertido, el análisis facial, podría estarlo también. A pesar de toda la preocupación que ha suscitado el reconocimiento facial, incluidos los errores que puede cometer como herramienta de vigilancia, decenas de millones de personas siguen utilizándolo sin dudarlo para desbloquear sus teléfonos.
Un análisis facial como el que utiliza Carnegie Mellon abre una caja de Pandora aún mayor. El verano boreal pasado, Microsoft Corp. se comprometió a eliminar sus herramientas de análisis facial, que estimaban el sexo, la edad y el estado emocional de una persona, admitiendo que el sistema podía ser poco fiable e invasivo. Puede que esto no importe demasiado a los operadores, deseosos de aprovechar cualquier dato que puedan para obtener una ventaja. Pero este estudio, si tiene éxito, podría impulsar la investigación sobre el análisis de rostros con otros fines, como evaluar el estado emocional de una persona durante una reunión de trabajo.
“Si estás haciendo un trato de negocios a través de Zoom, ¿puede una IA leer la cara para saber si alguien te está engañando o si está siendo un negociador duro? “Es posible. ¿Por qué no?
Zoom Video Communications Inc. introdujo el año pasado una función que rastrea los sentimientos en una reunión de trabajo grabada. Denominado Zoom IQ, el software, dirigido a profesionales de ventas, da a los participantes en la reunión una puntuación de entre 0 y 100, donde más de 50 indica un mayor compromiso en la conversación. El sistema no utiliza el análisis facial, sino que hace un seguimiento de la participación de los oradores, o del tiempo que se espera para responder, y ofrece su puntuación al final de la reunión.
Más de dos docenas de grupos de defensa de los derechos han pedido a Zoom que deje de trabajar en esta función, argumentando que el análisis de los sentimientos se basa en la pseudociencia y es “inherentemente sesgado”. Un portavoz de Zoom dijo que la empresa sigue vendiendo el software, y que “convierte las interacciones de los clientes en percepciones significativas.”
Se puede argumentar que a los investigadores de Carnegie no debería importarles lo que su herramienta de análisis facial les diga sobre las emociones de los operadores; sólo necesitan detectar los patrones que apuntan a correlaciones, y hacer pivotar esas cifras en un algoritmo de búsqueda. Pero el inconveniente de convertir las emociones en un número es precisamente ése: Se corre el riesgo de devaluar una de las características más fundamentales del ser humano. Sería mejor que no se pusiera de moda.
Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.