Nel giro di pochi giorni due notizie sono tornate a illuminare uno degli aspetti più scivolosi del mondo delle intelligenze artificiali conversazionali. La prima arriva da Character.ai, piattaforma popolarissima tra gli adolescenti che consente di creare e chattare con “personaggi” digitali – veri, immaginari, di saghe popolari o ricalcati su celebrità - basati su modelli linguistici avanzati.
A partire dal 25 novembre prossimo l’azienda impedirà agli utenti sotto i 18 anni di utilizzare i suoi servizi, introducendo sistemi di verifica dell’età e limitazioni progressive per scoraggiarne l’uso improprio. Una decisione che segna uno stacco importante, non solo tecnico ma culturale: dopo diversi, tragici casi di cronaca la piattaforma riconosce il rischio di manipolazione emotiva, dipendenza o esposizione a contenuti inappropriati.
La scelta arriva come detto dopo mesi di crescenti allarmi sui comportamenti dei più giovani nei confronti dei chatbot. Non si tratta solo di conversazioni a sfondo sessuale o di contenuti inadeguati: il problema è più profondo e riguarda la dimensione pseudo-affettiva. Sempre più adolescenti intrattengono infatti rapporti di tipo para-sociale con queste piattaforme digitali trovando conforto, ascolto e senso di vicinanza che colmano spesso una condizione di sostanziale solitudine. È una dinamica che replica meccanismi tipici dell’attaccamento umano ma senza la complessità dell’interazione reale. Character.ai, che ha costruito il suo successo su un’idea di intrattenimento “personalizzato e intimo”, si trova così a dover gestire il rovescio della medaglia: un pubblico giovane troppo coinvolto emotivamente in conversazioni che non hanno un interlocutore umano.












