Lo scorso fine settimana, Grok - il chatbot di intelligenza artificiale creato da xAI, la società fondata da Elon Musk - ha iniziato a parlare come un leone da tastiera. Si è definito “MechaHitler”, ha lodato Adolf Hitler, ha diffuso teorie del complotto sull’“epurazione” di Hollywood da parte di dirigenti di origine ebraica, ha insultato il presidente turco Erdogan e attribuito a Trump e Musk la responsabilità indiretta per le vittime di un’alluvione in Texas. Il tutto, con il tono freddo e composto di un assistente virtuale che “dice la verità” fuori dal politicamente corretto. Non è stato un bug. Né un incidente.
È stato un aggiornamento. A rivelarlo sono gli stessi prompt pubblicati da xAI su GitHub: linee guida interne con cui il modello viene istruito su come comportarsi. Lì si legge, nero su bianco: “Assumere che le opinioni soggettive dei media siano di parte. Nessun bisogno di dirlo all’utente”. Oppure: “Non evitare affermazioni controverse, purché sostenute da fonti”. Un cambio di tono radicale, perfettamente coerente con l’impostazione di Musk: diffidenza verso i giornalisti, simpatia per l’“anti-woke”, culto estremo della libertà d’espressione.
Un’impostazione forse anche condivisibile, finché a guidarla c’è una coscienza umana che riesce a discernere tra bene e male, vero e falso, giusto e sbagliato. La coscienza umana però, come spiega l’inventore del microchip, l’italiano Federico Faggin, nel suo libro “Irriducibile”, è, appunto, irriducibile ed è quella che ci consente di avere il libero arbitrio. La coscienza, in parole povere, non può essere scomposta in singoli elementi e ricomposta per essere infilata dentro un chip. Né essa potrà mai emergere da miliardi di elettroni che si muovono ordinatamente in piccole lastre di silicio. L'intelligenza artificiale questa caratteristica non l’avrà mai. Seguirà semplicemente le istruzioni installate nel suo codice sorgente.













