“Avete visto la balena?” Sembra fare eco al capitano Achab di Moby Dick il Garante della privacy italiano. Da mesi dà la caccia alla “balena” di Deepseek, la startup cinese che ha sviluppato un potente modello open source di intelligenza artificiale (e che ha una balena per simbolo), e non sa come afferrarla. Lo scorso 30 gennaio l'Autorità garante per la protezione dei dati personali ha adottato d'urgenza un provvedimento per inibire il trattamento delle informazioni degli utenti italiani da parte di Deepseek, dopo il lancio globale del chatbot di AI all'inizio del 2025.

Come aveva già fatto con ChatGPT e OpenAI nella primavera del 2023, il Garante ha ordinato lo stop al trattamento sulla base del Gdpr, il regolamento europeo sulla privacy, perché da Deepseek non erano arrivate risposte trasparenti su come adoperi i dati degli utenti italiani, dove li archivi e se ne abbia pescati a strascico su internet per addestrare i suoi algoritmi. In quattro e quattr'otto l'app è stata rimossa dagli store di Apple e Google, mentre il sito è rimasto accessibile. Il Garante ha aperto un'istruttoria a carico della società. E da mesi cerca di notificare il procedimento. Senza successo.

A quanto apprende Wired Italia da fonti qualificate, Deepseek non ha mai risposto ai vari tentativi di notifica dall'Italia. Wired ha inviato una richiesta all'azienda, senza ottenere risposta prima della pubblicazione di questo articolo. Il campione cinese dell'AI, fondato nel 2023 a Hangzhou da Liang Wenfeng, classe 1985, è diventato un grattacapo per il Garante della privacy. Non risponde alle email. Le raccomandate spedite in sede tornano indietro. Il laboratorio di AI che all'inizio dell'anno si è preso la ribalta della scena tecnologica mondiale, facendo venire un coccolone alle multinazionali degli Stati Uniti per l'efficienza del suo processo di addestramento e ai loro investori in Borsa, sembra svanire come la balena bianca che il capitano di Herman Melville caccia senza sosta.