C’è un problema, con le “intelligenze artificiali”, che mi pare venga prima di tutti gli altri problemi con le “intelligenze artificiali” di cui stiamo parlando intensamente da quando è arrivato ChatGPT in poi, tre anni fa. Lo descrivo sbrigativamente così: la maggior parte di noi non sa di cosa sta parlando.

Quello che mi pare sia successo è un fenomeno linguistico/culturale ricorrente in questi anni di accelerazioni improvvise nei dibattiti più diversi: ovvero che ci troviamo a parlare tantissimo di qualcosa di nuovo prima ancora che ci sia stato il tempo di convenire sul significato delle parole e sui concetti che usiamo (è successa una cosa simile, perdonate il paragone apparentemente distante, con le “questioni di genere”, per esempio).

In questo caso, la dimostrazione di quello che sto dicendo è semplicissima: chiedete in giro a chi volete una definizione di “intelligenza artificiale”.

Io tendo a usare il meno possibile l’espressione “intelligenza artificiale” e di solito la metto tra virgolette, o mi costringo a dire “software di intelligenza artificiale”. Ce ne sono diverse ragioni, tra cui:

1) l’impressione che venga usata per indicare cose diversissime tra loro, che vanno da singoli e limitati software di diversissime applicazioni ad astratti concetti filosofici, a umanizzazioni suggestive, a calderoni di un po’ di tutto. Tu dici “intelligenza artificiale” e non si sa a cosa ti stia riferendo (spesso neanche tu).