Sería confundir el instrumento con el autor, el resultado con la intención, el poder de cálculo con el pensamiento. No sería un triunfo de la ciencia, sino una derrota de la razón
Desde el lanzamiento de ChatGPT y la inteligencia artificial (IA) generativa a finales de 2022, vivimos inmersos en una fiebre de atribución. Los medios de comunicación hablan frecuentemente de que “la IA ha descubierto”, “la IA ha creado”, “la IA ha decidido”. Pero esas
O suscríbete para leer sin límites
cas-mantienen-la-apuesta-pese-a-los-altibajos-que-vaticina-altman.html" target="_blank" rel="" title="https://elpais.com/tecnologia/2025-10-10/la-incierta-burbuja-de-la-ia-las-tecnologicas-mantienen-la-apuesta-pese-a-los-altibajos-que-vaticina-altman.html" data-link-track-dtm="">frases encierran una peligrosa ilusión: la de ver no solo inteligencia, sino incluso conciencia donde no las hay. Como consecuencia de esta fiebre, cada mes de octubre, cuando se dan a conocer los ganadores de los premios Nobel, nunca faltan voces que preguntan ¿cuándo se premiará una inteligencia artificial?
La idea puede parecer provocadora, incluso inspiradora, pero en el fondo encierra un error filosófico y moral profundo: una IA no es una persona, no es un agente moral y, por lo tanto, no puede asumir responsabilidad por sus actos. En ciencia, la autoría y el reconocimiento no se otorgan únicamente por producir resultados, sino por rendir cuentas de ellos. Firmar un artículo o aceptar un premio implica responder por los métodos empleados, por las decisiones tomadas y por las consecuencias derivadas. Un científico puede explicar por qué hizo lo que hizo, corregir sus errores, defender su interpretación o rectificarla de acuerdo con el método científico. Una inteligencia artificial, en cambio, no entiende lo que hace. No tiene intención ni conciencia. No puede mentir ni decir la verdad, solo generar datos o textos que nosotros interpretamos como significativos.






