Nella primavera del 2015, due innovatori della Silicon Valley si ritrovarono in preda allo stesso, lancinante timore. Sam Altman, all'epoca trentenne e presidente di Y Combinator, l'acceleratore di startup più importante della California, condivideva con Elon Musk, il controverso CEO di Tesla e SpaceX, la preoccupazione che l'intelligenza artificiale potesse un giorno sfuggire al controllo umano. O, quantomeno, finire nelle mani sbagliate.
In quegli anni la frontiera più avanzata dell’intelligenza artificiale parlava soprattutto la lingua di Google, che aveva assorbito DeepMind, il laboratorio fondato nel 2013 da Demis Hassabis insieme a Mustafa Suleyman e Shane Legg con l’ambizione di costruire un’intelligenza artificiale generale.
Elon Musk, già allora, lanciava segnali d’allarme sempre più cupi: nelle interviste descriveva l’IA come una forza capace di “evocare il demone”, qualcosa che l’umanità rischiava di non poter controllare. Sam Altman, animato dagli stessi timori apocalittici, si interrogava su come evitare che l’avanzata delle macchine intelligenti imboccasse una traiettoria irreversibile.
A maggio del 2015, Altman mise per iscritto i suoi pensieri in un'e-mail a Musk.
“Ho riflettuto molto sulla possibilità di impedire all'umanità di sviluppare l'IA,” scrisse. “Se succederà comunque, sarebbe opportuno che lo facesse qualcun altro prima di Google.” Altman propose: “E se creassero una nuova organizzazione, un Progetto Manhattan per l'IA, per garantire che questa potente tecnologia venisse sviluppata in modo responsabile e a beneficio di tutti?” La risposta di Musk arrivò qualche ora dopo: “Probabilmente vale la pena parlarne.”








