Bloomberg — Casi la mitad de los responsables de recursos humanos encuestados por la consultora Gartner afirman estar formulando directrices sobre el uso por parte de los empleados del chatbot de inteligencia artificial ChatGPT de OpenAI.
El aspecto de estas políticas puede variar mucho. Algunas empresas de Wall Street, como Bank of America Corp. y Goldman Sachs Group Inc. han prohibido el chatbot, mientras que el gigante de los fondos de cobertura Citadel lo ha adoptado.
Al mismo tiempo, un tercio de los responsables de RRHH encuestados por Gartner afirman que no tienen previsto establecer ninguna política sobre el uso de ChatGPT por parte de los empleados, a pesar de que los expertos expresan su preocupación por la violación de los derechos de autor y la privacidad de los datos, y advierten a los usuarios de la tendencia del chatbot a inventarse cosas.
Más del 40% de los profesionales encuestados por Fishbowl, plataforma social propiedad de Glassdoor, han utilizado ChatGPT en el trabajo. Desarrolladores de software, consultores y banqueros son algunos de los primeros en adoptar esta herramienta para escribir correos electrónicos, informes y fragmentos de código. Según la encuesta de Fishbowl, la mayoría de ellos utilizaron la herramienta sin avisar a sus jefes.
Las empresas de Wall Street han empezado a tomar medidas. Además de Bank of America y Goldman Sachs, Citigroup Inc, Deutsche Bank AG y Wells Fargo & Co. han prohibido el uso de ChatGPT. Pero son minoría: Hasta ahora, sólo el 3% de los responsables de RR.HH. encuestados por Gartner afirman haber prohibido ChatGPT para cualquier fin empresarial.
Otros, como Citadel, están adoptando la postura contraria, negociando una licencia de la herramienta para toda la empresa.
“Esta rama de la tecnología tiene un impacto real en nuestro negocio”, declaró a Bloomberg Ken Griffin, su multimillonario fundador, “desde ayudar a nuestros desarrolladores a escribir mejor código hasta traducir software entre idiomas para analizar diversos tipos de información que analizamos en el curso ordinario de nuestro negocio.”
Según Eser Rizaoglu, analista director senior de la práctica de RRHH de Gartner, es probable que las empresas que trabajan en la elaboración de normas sobre el uso de la IA generativa se encuentren todavía en una fase exploratoria.
“Probablemente se estén cuestionando cuánta orientación, qué roles la usarán potencialmente o no podrán usarla, y si deberían prohibirla por completo o no”, dijo Rizaoglu. “Muchos directivos están trabajando con los departamentos de TI, jurídico, de cumplimiento y de auditoría para comprender: ¿Cuáles son los riesgos y las posibles repercusiones? Y luego, ¿cómo adoptamos un enfoque en consecuencia?”.
Al mismo tiempo, un tercio de los responsables de RR.HH. encuestados por Gartner afirmaron que no tienen previsto publicar ninguna política sobre el uso de ChatGPT por parte de los empleados. Según Rizaoglu, esto puede deberse a que la nueva tecnología puede ser irrelevante para su organización y el sector en el que trabajan, o a que creen que se trata de una moda pasajera. Otro grupo puede pensar que la responsabilidad de ofrecer orientación recae en los departamentos jurídicos o de TI.
Otros encuestados por Gartner han adoptado un enfoque intermedio, ni prohibiendo ni ignorando el chatbot, pero advirtiendo al personal de que las respuestas del chatbot no son necesariamente fiables o confidenciales, y pueden ser analizadas para ver si son generadas por IA.
Aun así, dados los riesgos para la precisión, la seguridad de los datos y la privacidad, “lo diligente sería evaluar cuáles son los riesgos potenciales para la organización e introducir algunas orientaciones en consecuencia para garantizar que la organización está mitigando cualquier riesgo que pudiera producirse más adelante”, afirma Rizaoglu.