Es extraordinario que un consejero delegado anuncie su nuevo producto diciendo que miente y manipula menos que el anterior. Pero lo realmente increíble es que sea mentira. En la presentación en directo del nuevo modelo de OpenAI, el pasado jueves, Sam Altman mostró unos gráficos donde comparaba GPT-5 con otro anterior (o3). Por suerte (mala suerte para Altman), hubo un par de periodistas que, además de escuchar las palabras que salían de su boca, se fijaron en las tablas que utilizó en la demostración.

Un gráfico decía que GPT-5 tiene una tasa de engaño del 50%. Pero la barra que lo representaba era menos de la mitad del tamaño que la barra de o3, cuya tasa de engaño era del 47,4% (al menos según los cálculos de OpenAI). Y en el gráfico que parecía comparar la precisión de los modelos, las barras de los más antiguos (o3 y GPT-4) tenían el mismo tamaño, aunque los valores que representaban eran 69,1% y 30,8% respectivamente, y la barra de GPT-5 era el doble de grande que ambas, aunque el valor era solo del 52,8%. La incongruencia no parece un accidente. Las cifras negaban las palabras de Altman, pero los gráficos la confirmaban. Tras ser denunciado, Altman se sorprendió por el “mega error en la gráfica” y se disculpó por el “crimen gráfico involuntario” de su equipo. Un dato poéticamente relevante es que ambos gráficos estaban recogidos en la sección titulada “engaño” (Deception).