Ogni giorno, milioni di persone interagiscono con sistemi di intelligenza artificiale che dicono cose come "capisco come ti senti" o "dev'essere davvero frustrante". I chatbot si scusano con un calore calibrato al millimetro. Gli avatar digitali inclinano la testa con espressioni di preoccupazione simulata. Gli assistenti vocali modulano il tono per risultare rassicuranti quando, alle due di notte, chiediamo informazioni su un sintomo che ci preoccupa. Nessuna di queste macchine prova alcunché. Il punto è capire se questo abbia davvero importanza visto che il cervello umano che riceve quei segnali non sembra fare alcuna distinzione.

È un territorio scomodo, e va ben oltre il dibattito ormai stanco sulla possibilità che l'intelligenza artificiale possa essere "davvero" empatica. Quel dibattito è in larga parte irrilevante. Quello che conta non è ciò che accade dentro la macchina, ma ciò che accade dentro di noi quando una macchina si comporta come se comprendesse le nostre emozioni. La distinzione tra empatia reale ed empatia artificiale collassa nel momento in cui le nostre risposte neurologiche non riescono a distinguere tra le due. E le evidenze scientifiche ci dicono che, in molti contesti, effettivamente non ci riescono.