Bloomberg — Desde que se dio a conocer el chatbot viral de OpenAI a finales del año pasado, los detractores se han alineado para señalar el posible uso indebido de ChatGPT por parte de estafadores de correo electrónico, bots, acosadores y hackers.
La última advertencia es especialmente llamativa: procede de la propia OpenAI. Dos de sus investigadores políticos figuran entre los seis autores de un nuevo informe que investiga la amenaza de las operaciones de influencia posibilitadas por la IA. (Uno de ellos ha abandonado OpenAI).
“Nuestro juicio final es que los modelos lingüísticos serán útiles para los propagandistas y probablemente transformarán las operaciones de influencia en línea”, según un blog que acompaña al informe, publicado el miércoles por la mañana.
La preocupación por los chatbots avanzados no se limita a las operaciones de influencia. Los expertos en ciberseguridad advierten de que ChatGPT y modelos de IA similares podrían bajar el listón para que los hackers escriban código malicioso dirigido a vulnerabilidades existentes o recién descubiertas. Check Point Software Technologies Ltd., una empresa de ciberseguridad con sede en Israel, dijo que los atacantes ya estaban reflexionando en foros de hacking sobre cómo recrear cepas de malware o mercados de la web oscura utilizando el chatbot.
Varios expertos en ciberseguridad subrayaron que cualquier código malicioso proporcionado por el modelo es tan bueno como el usuario y las preguntas que se le hagan. Aún así, dijeron que podría ayudar a los hackers menos sofisticados con cosas como el desarrollo de mejores señuelos o la automatización de las acciones posteriores a la explotación. Otra preocupación es que los hackers desarrollen sus propios modelos de IA.
WithSecure, una empresa de ciberseguridad con sede en Helsinki, afirma en un nuevo informe publicado también el miércoles que los malos actores pronto aprenderán a jugar con ChatGPT averiguando cómo hacer preguntas maliciosas que podrían alimentar intentos de phishing, acoso y noticias falsas.
“Ahora es razonable asumir que cualquier nueva comunicación que recibas puede haber sido escrita con la ayuda de un robot”, dijo Andy Patel, investigador de inteligencia de WithSecure, en un comunicado.
Un representante de OpenAI no respondió a una petición de comentarios, como tampoco lo hicieron los investigadores de OpenAI que trabajaron en el informe sobre operaciones de influencia. El FBI, la Agencia de Seguridad Nacional y el Consejo de Seguridad Nacional declinaron hacer comentarios sobre los riesgos de este tipo de modelos generados por IA.
Kyle Hanslovan, que solía crear exploits cibernéticos ofensivos para el gobierno estadounidense antes de crear su propia empresa defensiva, Huntress, con sede en Ellicott City, Maryland, fue uno de los que dijo que hay límites a lo que ChatGPT podría ofrecer. Dijo a Bloomberg News que era poco probable que creara nuevos exploits sofisticados del tipo que puede generar un atacante de un Estado-nación “porque carece de mucha creatividad y delicadeza”. Pero, al igual que otros expertos en seguridad, afirmó que ayudaría a las personas que no hablan inglés a elaborar correos electrónicos de phishing mucho mejores.
Hanslovan afirma que, en última instancia, ChatGPT dará a los defensores “un poco más de ventaja” que a los atacantes.
Juan Andrés Guerrero-Saade, director senior de Sentinel Labs en la empresa de ciberseguridad SentinelOne, afirmó que ChatGPT conoce el código mejor que él cuando se trata del minucioso mundo de la ingeniería inversa y la “desofuscación”, el esfuerzo por descubrir los secretos y hechiceros que se esconden tras un código fuente malicioso.
Guerrero-Saade quedó tan asombrado por las capacidades del ChatGPT que ha desechado su programa de enseñanza para profundizar en los hackers de estados-nación. La semana que viene, más de dos docenas de alumnos de su clase en la Escuela Johns Hopkins de Estudios Internacionales Avanzados escucharán su convicción de que ChatGPT puede ser una fuerza para el bien.
Puede hacer legibles los componentes básicos del código más rápido de lo que él puede hacerlo manualmente, y de forma más barata que un costoso software, afirmó. Guerrero-Saade dijo que le ha estado pidiendo que vuelva a analizar el malware CaddyWiper dirigido a Ucrania y que encuentre errores en su análisis inicial y en el de otros.
“Realmente no hay muchos analistas de malware en el mundo ahora mismo”, dijo. “Así que se trata de un multiplicador de fuerza considerable”.
En el estudio sobre las operaciones de influencia posibilitadas por la IA, los investigadores señalaron que sus principales preocupaciones eran que las campañas pudieran ser más baratas, más fáciles de escalar, instantáneas, más persuasivas y más difíciles de identificar utilizando las herramientas de IA. El informe es un esfuerzo del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown, OpenAI y el Observatorio de Internet de Stanford.
Los autores también “esbozan los pasos que pueden darse antes de que los modelos lingüísticos se utilicen para operaciones de influencia a escala”, como enseñar a los modelos de IA a ser “más sensibles a los hechos”, imponer restricciones más estrictas al uso de los modelos y desarrollar tecnología de IA que pueda identificar el trabajo de otras máquinas de IA, según el informe y el blog.
Pero los riesgos están claros en el informe, que se inició mucho antes de la publicación de ChapGPT. “No hay soluciones milagrosas para minimizar el riesgo de desinformación generada por IA”, concluye.
Lea más en Bloomberg.com