Bloomberg — Era media mañana de un martes de este mes cuando un ejecutivo de Ferrari NV (RACE) empezó a recibir un montón de mensajes inesperados, aparentemente del CEO de la empresa.
“Oye, ¿te has enterado de la gran adquisición que estamos planeando? Podría necesitar tu ayuda”, decía uno de los mensajes que pretendía ser del CEO Benedetto Vigna.
Los mensajes de WhatsApp vistos por Bloomberg no procedían del número de móvil profesional habitual de Vigna. La foto de perfil también era diferente, aunque se trataba de una imagen del CEO con gafas posando con traje y corbata, los brazos cruzados, delante del logotipo del caballo rampante de Ferrari.
“Prepárese para firmar el acuerdo de confidencialidad que nuestro abogado le enviará lo antes posible”, rezaba otro mensaje del imitador de Vigna. “El regulador del mercado italiano y la bolsa de Milán ya han sido informados. Manténgase preparado y, por favor, extreme la discreción”.
Lo que ocurrió a continuación, según personas familiarizadas con el episodio, fue uno de los últimos usos de las herramientas deepfake para llevar a cabo una conversación telefónica en directo con el objetivo de infiltrarse en una empresa reconocida internacionalmente. El fabricante italiano de supercoches salió indemne después de que el ejecutivo que recibió la llamada se diera cuenta de que algo no iba bien, dijeron estas personas, que pidieron no ser identificadas por lo delicado del asunto.
La voz que suplantaba a Vigna era convincente: una imitación perfecta del acento del sur de Italia.
El suplantador de Vigna empezó a explicar que llamaba desde otro número de teléfono móvil porque necesitaba hablar de algo confidencial: un acuerdo que podría tener algunos contratiempos relacionados con China y que requería la realización de una operación de cobertura de divisas no especificada.
El ejecutivo se quedó estupefacto y empezó a tener sospechas, según cuentan. Empezó a captar unas leves entonaciones mecánicas que no hicieron sino ahondar sus sospechas.
“Perdone, Benedetto, pero necesito identificarle”, le dijo el ejecutivo. Le planteó una pregunta: ¿Cuál era el título del libro que Vigna acababa de recomendarle unos días antes (era Decálogo de la complejidad: Actuar, aprender y adaptarse en el incesante devenir del mundo, de Alberto Felice De Toni)?
Con eso, la llamada terminó abruptamente. Ferrari abrió una investigación interna, dijeron las personas. Representantes de la empresa con sede en Maranello, Italia, declinaron hacer comentarios al respecto.
Una tendencia en auge
No es el primer intento de este tipo de hacerse pasar por un ejecutivo de alto perfil. En mayo, se informó de que Mark Read, CEO del gigante publicitario WPP Plc (WPP), también fue el objetivo de una estafa deepfake finalmente infructuosa pero igualmente elaborada que le imitaba en una llamada de Teams.
"Este año estamos viendo un aumento de los delincuentes que intentan clonar la voz utilizando IA", afirmó en una entrevista Rachel Tobac, directora ejecutiva de la empresa de formación en ciberseguridad SocialProof Security.
Aunque estas herramientas de IA generativa pueden crear imágenes, vídeos y grabaciones deepfake convincentes, aún no han demostrado ser lo bastante convincentes como para provocar el engaño generalizado sobre el que muchos han advertido.
Lea además: ¿La inteligencia artificial creará más noticias falsas de las que expone?
Sin embargo, algunas empresas han sido víctimas de los estafadores. A principios de este año, una multinacional anónima perdió 200 millones de Hong Kong (US$26 millones) después de que unos estafadores engañaran a sus empleados en Hong Kong utilizando la tecnología deepfake, según informó en febrero el South China Morning Post. Los estafadores fabricaron representaciones del director financiero de la empresa y de otras personas en una videollamada y convencieron a la víctima para que transfiriera dinero.
Otras empresas, como la de seguridad informática CyberArk (CYBR), ya están formando a sus ejecutivos para que sepan detectar cuándo están siendo estafados por bots.
“Es sólo cuestión de tiempo y se espera que estas herramientas de sofisticación deepfake basadas en IA lleguen a ser increíblemente precisas”, dijo Stefano Zanero, profesor de ciberseguridad en el Politécnico de Milán de Italia, en una entrevista telefónica.
Lea más en Bloomberg.com