Microsoft aumenta de 350 a 400 personas su equipo responsable de IA

Microsoft está interesada en aumentar la confianza en sus herramientas de IA generativa en medio de la creciente preocupación por su tendencia a generar contenidos extraños

Microsoft aumenta de 350 a 400 personas su equipo responsable de IA
Por Jackie Davalos
01 de mayo, 2024 | 01:04 PM

Bloomberg — Microsoft Corp. (MSFT) amplió el equipo responsable de garantizar la seguridad de sus productos de inteligencia artificial, aumentando su personal de 350 a 400 el año pasado.

Más de la mitad del grupo se dedica a esta tarea a tiempo completo, según informó la empresa el miércoles en su primer informe anual sobre transparencia de la IA, en el que se exponen medidas para garantizar que sus servicios se despliegan de forma responsable. Entre los miembros adicionales del equipo se encuentran tanto los nuevos empleados como los ya existentes.

Lea más: Las ventas y ganancias de Microsoft superan las expectativas impulsadas por fuerte demanda de IA

PUBLICIDAD

El año pasado, Microsoft disolvió su equipo de Ética y Sociedad en medio de despidos más amplios en el sector tecnológico que destriparon equipos de confianza y seguridad en varias empresas, incluidas Meta Platforms Inc. (META) y Google, de Alphabet Inc. (GOOGL).

Microsoft está muy interesada en aumentar la confianza en sus herramientas de IA generativa en medio de la creciente preocupación por su tendencia a generar contenidos extraños. En febrero, la empresa investigó incidentes relacionados con su chatbot Copilot, cuyas respuestas oscilaban entre extrañas y perjudiciales.

Al mes siguiente, un ingeniero de software de Microsoft envió cartas a la junta directiva, a los legisladores y a la Comisión Federal de Comercio advirtiendo de que el gigante tecnológico no estaba haciendo lo suficiente para salvaguardar su herramienta de generación de imágenes de IA, Copilot Designer, de la creación de contenido abusivo y violento.

PUBLICIDAD

Lea más: Líderes tecnológicos consideran que sus empresas no están preparadas para la IA

“En Microsoft reconocemos nuestro papel en la creación de esta tecnología”, afirma la empresa de Redmond (Washington) en el informe.

El planteamiento de Microsoft para desplegar la IA de forma segura se basa en un marco ideado por el Instituto Nacional de Normas y Tecnología. El organismo, que forma parte del Departamento de Comercio, recibió el encargo de crear normas para la tecnología emergente como parte de una orden ejecutiva emitida el año pasado por el Presidente Joe Biden.

En su informe inaugural, Microsoft afirma que ha puesto en marcha 30 herramientas de IA responsables, entre ellas algunas que dificultan que las personas engañen a los chatbots de IA para que actúen de forma extraña. Los “escudos de aviso” de la empresa están diseñados para detectar y bloquear intentos deliberados -también conocidos como ataques de inyección de aviso o jailbreaks- de hacer que un modelo de IA se comporte de forma no deseada.

Lea más en Bloomberg.com