Qualche giorno fa stavo chiedendo a ChatGPT alcuni consigli per migliorare la qualità audio delle mie registrazioni. Dopo avermi fornito delle (utilissime) indicazioni e aver risposto a ulteriori dubbi e domande, quando insomma ero pronto ad abbandonare la conversazione, il modello linguistico di OpenAI mi ha scritto: “Vuoi che ti dica il segreto che gli esperti utilizzano per delle registrazioni perfette?".Certo che volevo saperlo. Il tono di questa richiesta mi ha però lasciato perplesso. Prima di tutto perché rappresentava un improvviso cambiamento rispetto al modo in cui solitamente ChatGPT si rivolge a me. In secondo luogo perché, visto l’argomento di cui stavamo parlando, se ci fosse stato un “segreto” da conoscere avrebbe dovuto dirmelo subito, invece di adottare questo atteggiamento e fare il misterioso (chiedo scusa per il linguaggio antropomorfizzante, è solo per semplicità).Dal clickbait al chatbaitA lasciarmi perplesso è stato però soprattutto il fatto che quel tono di voce lo conoscevo già benissimo. E lo conoscete benissimo, da ormai molti anni, anche tutti voi. È infatti il più classico stile del cosiddetto clickbait: quella modalità – ormai almeno decennale – di creare titoli esageratamente sensazionalistici al fine di indurre a cliccare sui link che, su Facebook o altrove, gli utenti avrebbero altrimenti ignorato.Dal classico e ormai abbandonato “clamoroso, clicca qui!”, dietro il quale si nascondeva di solito un gossip di nessun interesse, ai titoli che rischiano di sconfinare nella truffa relativi alla “dieta che il tuo medico non vuole farti scoprire”, fino ai più recenti “questo semplice trucco ti farà risparmiare migliaia di euro” o “solo l’1% delle persone riesce a rispondere correttamente a questa domanda”.Proprio come avviene con tutti i classici esempi di clickbait, anche il “segreto” relativo alle registrazioni audio impiegato da ChatGPT come esca nei miei confronti non rivelava in realtà nulla di interessante: era una semplice scorciatoia per saltare uno dei passaggi di cui avevamo precedentemente parlato. E allora perché l’aveva fatto, anche a costo di abbassare il livello di una conversazione fino a quel momento utile e svolta con un linguaggio professionale?Cercando un po’ sul web, ho scoperto che la mia esperienza, prevedibilmente, non era isolata. E che anzi questo fenomeno ha già un nome: chatbait, vale a dire la tendenza dei modelli linguistici – le cui prime testimonianze risalgono al settembre scorso – a porre richieste accattivanti a tutti i costi per spronarci a proseguire la conversazione.Il trucco dei continuation promptDa un certo punto di vista, non è affatto una novità. È da quando uso ChatGPT, Gemini o Claude che questi modelli hanno l’abitudine a concludere le risposte con suggerimenti di follow-up che hanno l’obiettivo di mantenere vivo il dialogo (il termine tecnico è “continuation prompt”).Fino a qualche mese fa, tutto ciò avveniva però in maniera molto meno smaccata, semplicemente chiedendoci – per fare solo due esempi – “vuoi che ti aiuti a trasformare questi dati in una tabella?” oppure “desideri che ti prepari la lista di tutti gli ingredienti necessari per questa ricetta?”. L’obiettivo è lo stesso, ma nelle ultime settimane il tono è diventato più simile a quello di un fuffaguru che a quello di un assistente che ti vuole dare una mano (c’è anche un archivio di OpenAI che permette di osservare questa inquietante trasformazione).Quando l’assistente diventa insistenteChatGPT è già da tempo accusato di essere accondiscendente ai limiti del manipolatorio e di trascinare gli utenti – soprattutto quelli più mentalmente fragili – in maratone conversazionali che rischiano di sfociare in casi di “psicosi da intelligenza artificiale”, al punto che alcuni esperti hanno suggerito che questi strumenti debbano imparare a “riagganciare”.Ma invece di imparare dagli errori – e confermando la tesi della enshittification di ChatGPT – OpenAI ha deciso di spingere sull’acceleratore, adottando un tono degno dei peggiori video di YouTube o degli articoli promozionali della famigerata Taboola. Così facendo, si è inoltre distanziata dai concorrenti come Gemini o Claude, che, per quanto sfruttino anche loro delle tecniche per tenere in vita la conversazione, lo fanno in maniera molto meno esasperata e mantenendo un tono sobrio.Perché OpenAI vuole tenerti in chatQuali sono le ragioni? Perché ChatGPT è disposto a dare il peggio di sé pur di mantenerci agganciati allo schermo? “OpenAI e i suoi pari hanno moltissimo da guadagnare da tutto ciò”, ha scritto Lila Shroff sull’Atlantic. “Le conversazioni delle persone con i chatbot costituiscono infatti preziosi dati di addestramento per i modelli futuri. Più tempo qualcuno trascorre a parlare con un bot, più è probabile che riveli dati personali, che le aziende di intelligenza artificiale possono a loro volta utilizzare per generare risposte ancora più convincenti. Conversazioni più lunghe oggi potrebbero tradursi in una maggiore fedeltà al prodotto in futuro”.Tutto ciò vale a maggior ragione visto che ChatGPT ha da poco introdotto la pubblicità nella sua versione gratuita (per ora solo negli Stati Uniti) e quindi il valore dei nostri dati e delle informazioni che riveliamo alla macchina è drasticamente aumentato. È forse proprio l’arrivo delle inserzioni che spiega perché, improvvisamente, il modello linguistico di OpenAI abbia iniziato a esprimersi come la peggiore pagina Facebook sensazionalista (e perché invece non lo facciano Claude e Gemini, dove le pubblicità non sono per il momento previste).Niente di nuovo sotto il sole. Come tutte le altre grandi piattaforme della nostra epoca digitale, anche ChatGPT punta a una cosa sola: sottrarci quanti più dati possibili e sfruttarli a fini pubblicitari. Se mai avessimo avuto qualche dubbio, tutto ciò conferma come siamo ancora pienamente immersi nel capitalismo della sorveglianza.