OpenAI crea un nuevo equipo para reducir los riesgos de la IA del futuro

La empresa formó un equipo que analizará e intentará prevenir posibles “riesgos catastróficos” de sistemas de IA, que van desde problemas de ciberseguridad hasta amenazas químicas, nucleares y biológicas

ChatGPT Las ciberempresas advierten de que los robots de IA traerán estafas de phishing más desagradables
Por Rachel Metz
26 de octubre, 2023 | 05:40 PM

Bloomberg — OpenAI está poniendo en marcha un nuevo equipo destinado a minimizar los riesgos de la inteligencia artificial a medida que esta tecnología en rápido desarrollo se hace más capaz con el tiempo.

En una entrada de blog publicada el jueves, la empresa más conocida por el popular chatbot ChatGPT anunció que ha formado un equipo de “preparación” dirigido por Aleksander Madry, que ha estado trabajando en OpenAI mientras disfrutaba de una excedencia de su puesto de profesor en el Instituto Tecnológico de Massachusetts. El grupo analizará e intentará prevenir los posibles “riesgos catastróficos” de los sistemas de IA, que van desde problemas de ciberseguridad hasta amenazas químicas, nucleares y biológicas.

El equipo también elaborará una política destinada a ayudar a la empresa a determinar cómo puede reducir los riesgos que puede entrañar el desarrollo de los denominados “modelos de frontera”, la próxima generación de tecnología de IA más capaz que la que se utiliza generalmente en la actualidad.

PUBLICIDAD
VER +
Meta lanza software de programación de IA para competir con OpenAI

El objetivo de OpenAI se centra desde hace tiempo en construir inteligencia general artificial o AGI, es decir, IA que pueda realizar una serie de tareas mejor que los humanos. Aunque los sistemas de IA actuales no se ajustan a esta descripción, la empresa afirma que necesita “garantizar que tenemos la comprensión y la infraestructura necesarias para la seguridad de sistemas de IA altamente capaces”.

Lea más en Bloomberg.com