Un'IA non ha bisogno di “avere sentimenti” o “odiare l'umanità” per decidere, in nome dell'efficienza, che la nostra esistenza è un ostacolo ai suoi obiettivi.
È ciò che sostengono Eliezer Yudkowsky e Nate Soares, due dei massimi esperti di rischi legati all’intelligenza artificiale, nel loro libro “Prima che sia troppo tardi”, edito in Italia da Mondadori, che mette in guardia su un futuro popolato da macchine più intelligenti e capaci degli esseri umani.
In America il titolo del loro saggio è ancora più crudo: “Se qualcuno la costruisce, tutti quanti muoiono”.
Da quando è comparsa ChatGpt, le visioni apocalittiche di scienziati ed esperti riaffiorano ciclicamente. Nel 2023 Elon Musk e altri innovatori firmarono una lettera in cui si chiedeva di fermare per sei mesi lo sviluppo dell’IA.
Un appello inascoltato. “Ma la minaccia - dice Soares, presidente della no-profit Machine Intelligence Research (MIRI) - è reale”.







