El desastroso lanzamiento de Gemini, de Google, le hizo un favor al mundo

Por

Los inversionistas de Alphabet Inc. (GOOGL), propietaria de Google, están en su derecho de estar molestos por la increíble incompetencia del sistema de IA Gemini de la compañía. En cambio, para todos los demás, entre ellos este agradecido internauta de Google y entusiasta optimista de la tecnología, fue una bendición.

Las risibles meteduras de pata en la generación de imágenes del chatbot Gemini, es decir, ¿soldados nazis de diversas razas?, proporcionaron una valiosa perspectiva. Y al hacerlo, también resaltaron aspectos vitales como la opacidad, credibilidad, campo de aplicación y veracidad, asuntos que requieren más atención a la hora de contemplar hacia dónde nos llevará la inteligencia artificial.

La inteligencia artificial es una novedad disruptiva y con potencial transformador y, al igual que todas las innovaciones de esta índole, es susceptible de lograr enormes progresos para el bienestar de la humanidad.

Una o varias décadas de crecimiento económico potenciado por la inteligencia artificial es precisamente lo que el mundo necesita. No obstante, la euforia por la IA actual es precipitada. La idea es tan fascinante y sus logros intelectuales tan asombrosos que resulta fácil entusiasmarse.

Tanto los innovadores como los verdaderos y posibles usuarios y los organismos reguladores necesitan analizar más detenidamente lo que está sucediendo y, sobre todo, qué fines puede tener la inteligencia artificial.

Una de las dificultades a la hora de abordar todas las implicaciones de la inteligencia artificial es lo mucho que se ha trabajado para concebir modelos de IA capaces de expresarse como los humanos, supuestamente por cuestiones de marketing.

“Sí, te puedo ayudar con eso”. Muchas gracias, pero ¿quién es ese “yo”? Se sugiere que la inteligencia artificial puede comprenderse y manejarse del mismo modo que se entiende y se trata a un ser humano, con la salvedad de que la inteligencia artificial es muchísimo más inteligente y posee un mayor conocimiento.

Por ese motivo, a la hora de decidir, pretende tener cierta autoridad sobre sus usuarios. Hay una diferencia crucial entre la inteligencia artificial como herramienta que las personas usan para optimizar sus decisiones, decisiones por las cuales son responsables, y la inteligencia artificial como tomadora de decisiones por sí misma.

A su debido tiempo, es probable que a la IA se le conceda un poder de toma de decisiones cada vez más amplio, no sólo sobre la información (texto, vídeo, etc.) que pasa a los usuarios humanos, sino también sobre las acciones. Con el tiempo, la “conducción totalmente autónoma” de Tesla en realidad significará conducción totalmente autónoma. En ese momento, la responsabilidad por las malas decisiones de conducción recaerá en Tesla.

Entre la IA asesora y la IA de actor autónomo, es más difícil decir quién o qué debe ser considerado responsable cuando los sistemas cometen errores importantes. Sin duda, los tribunales se harán cargo de esto.

Dejando a un lado la responsabilidad, a medida que la IA avance, querremos juzgar qué tan buena es para tomar decisiones. Pero eso también es un problema.

Por razones que no comprendo, no se dice que los modelos de IA cometan errores: “alucinan”. ¿Pero cómo sabemos que están alucinando? Lo sabemos con certeza cuando presentan hallazgos tan absurdos que incluso los humanos con poca información saben reírse. Pero cuando los sistemas de IA inventan cosas, no siempre serán tan estúpidos. Ni siquiera sus diseñadores pueden explicar todos esos errores, y detectarlos podría estar más allá del alcance de los simples mortales. Podríamos preguntarle a un sistema de IA, pero alucinan.

Incluso si los errores pudieran identificarse y contarse de manera confiable, los criterios para juzgar el desempeño de los modelos de IA no están claros. La gente comete errores todo el tiempo.

Si la IA cometiera menos errores que los humanos, ¿sería eso suficiente? Para muchos propósitos (incluida la conducción autónoma total), me inclinaría a decir que sí, pero el ámbito de las preguntas planteadas a la IA debe ser adecuadamente limitado. Una de las preguntas que no me gustaría que respondiera la IA es: “Si la IA comete menos errores que los humanos, ¿sería suficiente?”.

La cuestión es que juicios como este no son simplemente fácticos, una distinción que va al meollo de la cuestión. Que una opinión o una acción esté justificada a menudo depende de los valores. Estos podrían estar implicados por la acción en sí (por ejemplo, ¿estoy violando los derechos de alguien?) o por sus consecuencias (¿es este resultado más beneficioso socialmente que la alternativa?).

La IA maneja estas complicaciones asignando implícitamente valores a las acciones y/o consecuencias, pero debe inferirlos ya sea a partir del consenso, incrustado en la información en la que está entrenada o de las instrucciones emitidas por sus usuarios y/o diseñadores. El problema es que ni el consenso ni las instrucciones tienen autoridad ética alguna. Cuando la IA ofrece una opinión, sigue siendo sólo una opinión.

Por esta razón, lamentablemente la llegada de la IA está en el momento oportuno. La alguna vez clara distinción entre hechos y valores está siendo atacada por todos lados. Periodistas eminentes dicen que nunca entendieron realmente lo que significaba “objetivo”. Los “teóricos críticos” que dominan muchos programas universitarios de estudios sociales abordan la “falsa conciencia”, la " construcción social " y la verdad como “experiencia vivida”, todo lo cual pone en duda la existencia de los hechos y ve los valores como instrumentos de opresión.

Los altruistas efectivos discrepan de los valores de una manera muy diferente: afirman, de hecho, que las consecuencias pueden juzgarse en una sola dimensión, lo que hace que los valores distintos de la “utilidad” sean nulos. Éticos algorítmicos, ¡regocíjense!

A medida que estas ideas se filtran en lo que la IA dice saber, impulsadas aún más por los diseñadores que promueven el realineamiento cultural en materia de raza, género y equidad, espere que los sistemas presenten juicios de valor como verdades (tal como lo hacen los humanos) y le nieguen información que pueda llevarlo a error moral (tal como lo hacen los humanos).

Como señala Andrew Sullivan , al principio Google prometió que sus resultados de búsqueda serían “imparciales y objetivos”; ahora su principal objetivo es ser “socialmente beneficioso”. Los sistemas de inteligencia artificial podrían razonar, o recibir instrucciones, de que al elegir entre lo que es verdadero y lo que es socialmente beneficioso, deberían elegir lo último y luego mentir a los usuarios acerca de haberlo hecho. Después de todo, la IA es tan inteligente que su “verdad” debe ser realmente cierta.

Esta nota no refleja necesariamente la opinión del consejo editorial o de Bloomberg LP y sus propietarios.

Lea más en Bloomberg.com