Bloomberg — Samsung Electronics Co. prohíbe a sus empleados el uso de herramientas populares de IA generativa como ChatGPT, Google Bard y Bing por motivos de seguridad, lo que supone un revés para la difusión de esta tecnología en el lugar de trabajo.
La empresa, con sede en Suwon (Corea del Sur), notificó el lunes la nueva política al personal de una de sus mayores divisiones a través de un memorándum analizado por Bloomberg. Según el documento, a la empresa le preocupa que los datos transmitidos a este tipo de plataformas de inteligencia artificial se almacenen en servidores externos, lo que dificulta su recuperación y eliminación, y puedan acabar siendo revelados a otros usuarios.
“El interés por las plataformas de IA generativa como ChatGPT ha ido creciendo tanto interna como externamente”, dijo Samsung al personal. “Si bien este interés se centra en la utilidad y eficiencia de estas plataformas, también hay una creciente preocupación por los riesgos de seguridad que presenta la IA generativa”.
Samsung es solo la última gran empresa en expresar su preocupación por esta tecnología. En febrero, solo un par de meses después de que el servicio de chatbot de OpenAI suscitara una tormenta de interés por la tecnología, algunos bancos de Wall Street, entre ellos JPMorgan Chase & Co., Bank of America Corp. y Citigroup Inc. prohibieron o restringieron su uso. Italia también prohibió el uso de ChatGPT por temor a la privacidad, aunque en los últimos días ha cambiado de postura.
Un representante de Samsung declinó hacer comentarios.
Las nuevas normas de Samsung prohíben el uso de sistemas de IA generativa en ordenadores, tabletas y teléfonos propiedad de la empresa, así como en sus redes internas. No afectan a los dispositivos de la empresa vendidos a los consumidores, como los smartphones Android y los portátiles Windows.
Samsung pidió a los empleados que utilizan ChatGPT y otras herramientas en dispositivos personales que no envíen ninguna información relacionada con la empresa ni datos personales que puedan revelar su propiedad intelectual. Advirtió de que el incumplimiento de las nuevas políticas podría acarrear el despido.
“Les pedimos que sigan con diligencia nuestras directrices de seguridad; de lo contrario, la información de la empresa podría verse comprometida y dar lugar a medidas disciplinarias, incluido el despido”, afirma Samsung en la nota.
La empresa realizó una encuesta el mes pasado sobre el uso de herramientas de inteligencia artificial a nivel interno y afirmó que el 65% de los encuestados cree que estos servicios suponen un riesgo para la seguridad. A principios de abril, los ingenieros de Samsung filtraron accidentalmente código fuente interno subiéndolo a ChatGPT, según el memorando.
“La sede central está revisando las medidas de seguridad para crear un entorno seguro para utilizar de forma segura la IA generativa con el fin de mejorar la productividad y la eficiencia de los empleados”, decía la nota. “Sin embargo, hasta que estas medidas estén preparadas, estamos restringiendo temporalmente el uso de IA generativa”.
Mientras tanto, la empresa está creando sus propias herramientas internas de IA para traducir y resumir documentos, así como para el desarrollo de software. También está trabajando en formas de bloquear la subida de información sensible de la empresa a servicios externos. El mes pasado, ChatGPT añadió un modo “incógnito” que permite a los usuarios impedir que sus chats se utilicen para entrenar modelos de IA.
--Con la ayuda de Sohee Kim.