¿Quién debería rendir cuentas por los daños causados por la IA?

Por

Imaginemos un atraco a un banco organizado a través de correos electrónicos y mensajes de texto. ¿Serían responsables los proveedores de correos electrónicos o los fabricantes de teléfonos? Por supuesto que no. Cualquier castigo o pena se impondría a los delincuentes.

Consideremos ahora un resultado perjudicial provocado por la IA: un acto de difamación, un mal consejo que provoque pérdidas financieras, tal vez instrucciones para un ciberataque destructivo. ¿Debería responsabilizarse a la empresa que creó la IA? Pensadores como Ezra Klein y Luke Muelhauser sostienen que debería serlo, al menos parcialmente, como forma de animar a esas empresas a construir servicios más seguros.

Por desgracia, sería difícil que este plan funcionara. Parte de la razón es lo que los economistas llaman el Teorema de Coase, que establece que la responsabilidad debe asignarse a quien evite el daño con el menor costo.

En el caso del atraco a un banco, los proveedores del medio de comunicación o de la tecnología de uso general (es decir, la cuenta de correo electrónico o el dispositivo móvil) no son los que menos costos evitan y no tienen control sobre el daño. Y puesto que las tecnologías de uso general -como los dispositivos móviles o, más concretamente, los grandes modelos lingüísticos de IA- tienen tantos usos prácticos, la ley no debería desincentivar su producción con una carga adicional de responsabilidad.

Como contraejemplo sencillo, consideremos otra analogía imperfecta: un zoo que deja la jaula de los leones sin cerrar. Es muy posible que acabe siendo responsable de una fiera desbocada, ya que podría haber resuelto ese problema de forma bastante directa y a bajo costo.

Este enfoque coaseano no es perfecto para todas las decisiones. Pero es una guía inicial aproximada de lo que es económicamente eficiente.

Tal como están las cosas, si un usuario recibe mala información médica de una búsqueda en Google, Google no es responsable. Google se ha preocupado de elevar los resultados médicos más fiables en respuesta a preguntas comunes, como debe ser - pero si alguien hace clic en el enlace 27 y decide renunciar a una vacuna Covid-19, la culpa se considera, con razón, suya. Dada la versatilidad de los modelos lingüísticos (LLM) para responder a consultas e interrogatorios repetidos, no es obvio que las sanciones legales puedan hacer que todas sus respuestas sean exactas.

Del mismo modo, los libros y mapas han proporcionado información peligrosa a muchos delincuentes y terroristas. Pero la responsabilidad por este tipo de delitos no suele recaer en el editor. No es práctico exigir que toda la información publicada sea la combinación correcta de veraz e inofensiva. ¿Y cuál es el resultado de un LLM sino un nuevo y más poderoso tipo de libro o mapa? (O qué tal una pregunta más traviesa: ¿Y si la consulta del LLM pidiera que la respuesta se imprimiera en forma de libro?).

Desde un punto de vista más práctico, la asignación de responsabilidad al servicio de inteligencia artificial no va a funcionar en muchos ámbitos. El sistema jurídico estadounidense, incluso cuando funciona bien, no siempre es capaz de determinar qué información es suficientemente perjudicial. Mucha información buena y productiva -como enseñar a la gente a generar y manipular la energía- también puede utilizarse con malos fines.

Responsabilizar totalmente a los proveedores de IA de todos sus diferentes tipos de resultados, y de las consecuencias de esos resultados, probablemente los llevaría a la quiebra. Los LLM actuales pueden producir una variedad casi infinita de contenidos en muchos lenguajes, incluidos la programación y las matemáticas. Si el objetivo es la quiebra, sería mejor que los partidarios de una mayor responsabilidad lo dijeran.

Podría ser que existiera una solución sencilla para los LLM que les impidiera generar algunos tipos de información perjudicial, en cuyo caso la responsabilidad parcial o conjunta podría tener sentido para inducir la seguridad adicional. Si decidimos seguir este camino, deberíamos adoptar una actitud mucho más positiva hacia la IA: el objetivo, y el lenguaje, deberían ser más apoyar la IA que regularla o ralentizarla. En este escenario, las empresas podrían incluso adoptar voluntariamente las correcciones beneficiosas en su producción, para mejorar su posición en el mercado y protegerse de nuevas represalias normativas.

De ningún modo se han respondido todas las preguntas de responsabilidad sobre la IA y los LLM, ni el enfoque coaseano es una guía completa para las decisiones políticas. Pero cuando un servicio proporciona una gama tan amplia de información útil, más regulación o asignación de responsabilidad no es necesariamente la forma de hacerlo más seguro o más útil.

A algunos les preocupa que la IA avance demasiado rápido. Mi opinión es que también deberíamos proceder con cautela a la hora de considerar límites y normas sobre la IA.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg lp y sus propietarios.