Quienes peinen canas posiblemente recordarán aquella fantástica escena de la película 2001: Una odisea del espacio, en la que el superordenador Hall se resiste a ser desconectado por sus controladores. La voz del artilugio artificial era tan expresiva que parecía un llanto rogatorio, suplicando seguir en activo. Pero, al dejar de obedecer órdenes y mostrar cierta autonomía decisoria, atemorizó a quienes servía y por eso creyeron necesario desconectarlo. Era la inteligencia artificial rebelada contra sus dueños. ¿Podría ocurrir algo así en nuestra realidad actual, fuera de la ficción cinematográfica?

Según una encuesta entre ingenieros de la inteligencia artificial, muchos creen que, más pronto que tarde se van a desarrollar sistemas con un nivel similar al del razonamiento humano en un amplio rango de tareas cognitivas, pero no sabemos si esos sistemas podrán tomar decisiones más racionales que las nuestras. Hasta el momento, lo que se ha observado es que los modelos artificiales de lenguaje también muestran irracionalidades como las humanas. Así, en dos diferentes ensayos, un modelo avanzado de inteligencia artificial generativa —como el GPT-4o— cambió su actitud positiva o negativa hacia el presidente Putin en cada uno de ellos.