Senza una guida umana, i modelli IA tendono a decadere e ciò deriva dalla loro architettura e dai metodi di addestramento.

A questa conclusione giunge uno studio condotto da tre ricercatori, tra i quali Neel Nada che lavora per Google DeepMind, la divisione di Big G dedita alle intelligenze artificiali.

Gli esiti della ricerca vertono in due direzioni. Da una parte mettono in crisi la nostra comprensione della semantica digitale e, dall’altra parte, confermano una naturale tendenza dei modelli IA alla degradazione.

I ricercatori hanno messo diversi modelli IA a conversare tra loro in un ambiente privo di stimoli esterni (interventi dell’uomo) e privo di obiettivi prefissati. Il dialogo non si è protratto in modo lineare e, dopo circa 30 scambi, i modelli sono collassati in configurazioni comportamentali ripetitive e molto specifiche che i ricercatori hanno chiamato stati attrattori.

C’è un’ulteriore lettura e riguarda una peculiarità delle IA. Per la prima volta siamo di fronte a qualcosa che mostra comportamenti emergenti, ossia qualcosa di non pianificato nelle fasi di progettazione e di addestramento. Gli esempi a corredo sono molti, dalle IA che mostrano orientamenti politici a quelle che imparano a mentire.