Un drone militare, mentre solcava il cielo, ha cambiato il proprio “cervello artificiale” come noi cambiamo un’app sullo smartphone. Non è fantascienza: è accaduto nelle scorse settimane durante un test dell’US Air Force, quando il velivolo autonomo YFQ-44A, sviluppato da Anduril Industries nell’ambito del programma Collaborative Combat Aircraft, ha commutato in volo il proprio sistema di autonomia di missione, passando dal software Hivemind di Shield AI alla piattaforma Lattice di Anduril, senza mai atterrare. Il velivolo ha completato una serie di valutazioni con il primo sistema, poi è transitato al secondo, eseguendo gli stessi punti di test prima di rientrare alla base in sicurezza. Un esercizio tecnico brillante, certo. Ma anche una soglia etica che merita di essere attraversata con gli occhi ben aperti.
Il programma CCA rappresenta la più ambiziosa scommessa dell’aeronautica militare statunitense sulla guerra del futuro: un esercito di circa mille droni semi-autonomi, battezzati “loyal wingmen”, progettati per affiancare caccia pilotati come l’F-35 in missioni di attacco, ricognizione, guerra elettronica e persino come esche per attirare il fuoco nemico.
L’architettura modulare aperta, denominata A-GRA, consente di separare il software di missione dall’hardware del velivolo, rendendo l’intelligenza artificiale che governa il comportamento del drone un componente sostituibile, aggiornabile, intercambiabile.










