Los robots no salvarán el mundo, pero hay que comprender su rol, según expertos

En una discusión en la conferencia SXSW en Austin, el CEO de una empresa de IA para robótica y dos profesores advierten sobre la falta de comprensión de las capacidades y limitaciones de las máquinas inteligentes

Robô exibido em evento que discutiu aplicações na vida real de máquinas com IA em 2023 em Montréal (Foto: Graham Hughes/Bloomberg)
12 de marzo, 2024 | 01:14 PM

Bloomberg — Los robots dotados de Inteligencia Artificial (IA) no deben verse con maniqueísmo, ni como máquinas a prueba de errores ni como aquellas que causarán daños a la humanidad. Sino como aquellas que pueden aportar beneficios concretos a la sociedad, siempre que se incorporen de forma planificada”.

Este fue el tono de un panel que debatió temas como los beneficios, los retos de seguridad y las cuestiones éticas emergentes en el primer día de la conferencia South by Southwest (SXSW), uno de los principales eventos de innovación del mundo, celebrado en Austin (Texas, EE.UU.).

VER +
¿Qué hacer con los riesgos que supone la IA para las empresas y que pocos comentan?

Los avances de la IA en robótica fueron analizados y debatidos por Andrea Thomaz, cofundadora y CEO de Diligent Robotics, Peter Stone, profesor de la Universidad de Texas en Austin, y Bill Smart, profesor de la Universidad Estatal de Oregón, en un panel acompañado por Bloomberg Línea.

PUBLICIDAD

Para Stone, el uso de la robótica para servicios específicos como el cuidado de ancianos tiene sus ventajas.

El profesor de la Universidad de Texas puso un ejemplo y comentó que, en teoría, sería obvio prohibir a un robot equipado con una cámara el acceso a un cuarto de baño. En cambio, si un anciano se cae en el baño, sería necesario que el robot tuviera acceso a la zona. “Tardamos años en aprender juicios correctos e incorrectos y es difícil programar ese juicio en un robot”, dijo.

También dijo que la sociedad pone el listón muy alto en cuanto a accidentes con robots, pero que en realidad no hay tantos incidentes: “es como los aviones, que la gente cree que son menos seguros que los coches. Estadísticamente, hay más accidentes con los coches, pero las noticias son distintas”, afirma.

PUBLICIDAD

Hay riesgos, sí, con la tecnología. Es tentador querer pensar en la perfección. Pero en el caso de los coches autónomos, los robots pueden conducir mejor que las personas, porque las personas conducen mal”, dijo.

Para Stone, un punto fundamental es intentar avanzar en el tema del control de los robots. “Hay formas de controlar un robot en términos de seguridad para que no se obligue a cruzar un objeto que encuentra en medio de la carretera, por ejemplo, sino que lo desvíe. Eso marca la diferencia en términos de seguridad. Creo que mucho tiene que ver con la percepción del público”, afirma Stone.

VER +
Cómo Selena Gómez planea ampliar el alcance de Wondermind, su startup de salud mental

Convivencia con los robots

Smart, de la Universidad Estatal de Oregón, se mostró de acuerdo en que es fundamental comprender el comportamiento de los robots. Estableció una analogía con la relación de las personas con los perros, en la que el aprendizaje a lo largo del tiempo, cuando existe, hace que el proceso sea más natural.

Los niños de hoy son nativos de la Inteligencia Artificial Generativa. Con el tiempo, tendremos niños que crezcan con robots, y serán capaces de distinguir en qué son mejores los robots que los humanos y en qué no. La gente tiene que acostumbrarse y crecer con ello”, añadió Stone.

Andrea Thomaz, por su parte, afirmó que tener robots en casa será un “desarrollo conjunto”, dado que mucha gente ya está pensando en formas de optimizar tareas que los robots ya pueden realizar.

Según la CEO de Diligent Robotics, también es posible establecer una analogía con la regulación en los hospitales, donde la estructura permite el paso de camas más grandes por los pasillos, así como de sillas de ruedas, y es totalmente compatible con las normas de accesibilidad.

“Hay estructuras similares que facilitan el trabajo de los robots. Si alguien pensara en construir una casa realmente habilitada para robots, tendría que pensar en el diseño de los pasillos, la disposición de los objetos y dónde se almacenan”.

“La cocina, por ejemplo, no estaría diseñada para manos muy hábiles, sino para otras menos hábiles. Esto significa que sería fácil saludar o incluso ‘hablar’ con el cajón a través de Bluetooth para dar la orden de abrirlo, por ejemplo”, explica.

PUBLICIDAD

Según los expertos, al igual que las señales de tráfico se colocan para guiar a las personas, es importante adaptar el entorno para facilitar el trabajo de los robots, con códigos QR, entre otros.

VER +
¿Me quitará el trabajo la IA? Los jefes no sólo deben tener en cuenta los resultados, dice un experto

Factor confianza

Stone añadió que algunas personas confían demasiado en los robots, mientras que otras no.

Según Thomas, a pesar de la normativa, al final todo se reduce al factor confianza. “La gente se pregunta si un robot con cámara guarda las imágenes o sólo las utiliza para coordinarse. Y la verdad es que aún no tenemos buenos modelos de regulación”, afirma. “Hay muchos problemas de privacidad relacionados con los robots de IA”.

Da esquerda para a direita: o professor Bill Smart, Peter Stone e a CEO da Diligent Robotics Andrea Thomaz, em painel no SXSW nesta sexta-feira, 8 de março de 2024. (Isabela Fleischmann/Bloomberg Línea)

Smart, profesor del estado de Oregón, añadió que le preocupa que la gente piense que los robots son “dispositivos mágicos” cuando, en realidad, no son inmunes al error. “Cuando nos fijamos en algunos de los debates, hay cierta percepción de cosas mágicas, conscientes, y me preocupa la influencia de eso en la legislación y que, al final, nos frene con la adopción de la tecnología”.

PUBLICIDAD

Para Stone, hablar de robots durante años ha implicado una percepción casi maniquea de que “o es algo que nos va a destruir o va a salvar el mundo”.

“Ahora ya no vemos titulares tan alarmistas y el público en general y los legisladores tienen los ojos más abiertos que hace cinco años”, afirmó Stone. En este punto del panel, Smart añadió que la Inteligencia Artificial generativa como ChatGPT “no es mala”. “A veces es un poco estúpida, pero no es mala”.