La notizia del suicidio di un adolescente che si era “confidato” con ChatGPT non è, purtroppo, il primo caso del genere. Già lo scorso dicembre 2024 un’altra AI Company, Character.ai era stata portata in giudizio dai genitori di un ragazzo che avrebbe compiuto un gesto estremo su impulso del chatbot che stava usando.

Questi due casi, come quelli meno gravi ma non meno preoccupanti di persone che si rifugiano in un’interazione finta e apparentemente tranquillizzante, vanno contestualizzati nel fenomeno per cui i chatbot vengono utilizzati, contro ogni logica e razionalità, come confidenti, mentori e, in qualche caso, come veri e propri “partner”.

A parte gli aspetti psico(pato)logici di fenomeni del genere che sono il riflesso del più generale distacco dalla realtà indotto da relazioni tecnologicamente mediate e, come rileva Simon Gottschalk della Nevada University, dall’infantilizzazione della cultura occidentale, è utile affrontare il tema anche da un punto di vista giuridico.

La “responsabilità dell’AI” e il problema dell’antropomorfizzazione

L’AI è un software e in quanto tale non ha “soggettività” né “coscienza”. Il fatto che possa funzionare con un elevato livello di autonomia e replicare manifestazioni (apparentemente qualificabili come) cognitive non cambia i termini della questione: il fatto di funzionare in un certo modo non incide sulla natura inanimata di un software.