El diario ‘New York Times’ reveló este sábado un caso que ha prendido las alarmas en el uso que se le da al reconocido ChatGPT, que usa inteligencia artificial, para organizar los alegatos de una demanda.
El artículo, escrito por el periodista Benjamin Wieser, habla de un pasajero llamado Roberto Mata, quien demandó a la aerolínea de origen latinoamericano Avianca porque, según él, resultó herido de su rodilla porque fue golpeada con un vehículo usado por la tripulación para mover los alimentos en los pasillos del avión en el vuelo que iba de El Salvador a Nueva York.
Cuando Avianca le solicitó a un juez federal de Manhattan archivar la demanda, los abogados de Mata presentaron un alegato en el que incluían seis decisiones de cortes de Estados Unidos en las que sustentaban el porqué el caso no debía ser archivado. Los precedentes judiciales que se enviaron eran casos de viajeros contra aerolíneas estadounidenses.
No obstante, dice el periódico, Avianca le manifestó al juez que habían buscado cada uno de los seis casos que había enviado al tribunal el abogado de Mata, Steven A. Schwartz, de la firma Levidow, Levidow & Oberman, no aparecían por ningún lado. Simplemente, ninguna de esas sentencias judiciales existían.
El pasado jueves, escribe Wieser, el abogado Schwartz confesó ante el juez federal que había usado ChatGPT para su investigación judicial y manifestó que no es confiable. Schwartz -con tres décadas de trabajo en el litigio- que no tenía el objetivo de engañar a esa corte ni a la aerolínea, y que era la primera vez que usaba esa herramienta para su trabajo. El veterano abogado prometió no volver a usarlo y que verificará lo que envíe a los juzgados.
El juez decidió llamar a una audiencia para el próximo 8 de junio para definir posibles sanciones contra Schwartz.
Esto recuerda tanto las bondades como los riesgos que tiene el uso de la inteligencia artificial para distintas tareas. De hecho, OpenAI, que desarrolló la poderosa herramienta, ha ofrecido hasta US$20.000 a las personas que reporten vulnerabilidades, algo que se convierte prácticamente en un programa de recompensas.
De igual manera, grandes empresas en el mundo han tomado el tema del ChatGPT con cautela. Algunas como Bank of America o Goldman Sachs prohibieron su uso a sus trabajadores por posible fuga de información. No obstante, otras adoptaron el chatbot.
Una encuesta de Gartner hecha revelada este año en Estados Unidos revela que un tercio de los responsables de RRHH encuestados no tienen previsto establecer ninguna política sobre el uso de ChatGPT por parte de los empleados, a pesar de que los expertos expresan su preocupación por la violación de los derechos de autor y la privacidad de los datos, y advierten a los usuarios de la tendencia del chatbot a inventarse cosas, según informó Bloomberg News.
Desarrolladores de software, consultores y banqueros son algunos de los primeros en adoptar esta herramienta para escribir correos electrónicos, informes y fragmentos de código. Según una reciente encuesta de Fishbowl, la mayoría de ellos utilizaron la herramienta sin avisar a sus jefes.