OpenAI sta “seriamente pensando” di crittografare le conversazioni tra gli utenti e ChatGPT, a partire almeno dalle chat temporanee. Lo ha confermato la scorsa settimana il CEO dell’azienda Sam Altman, durante una cena con alcuni reporter.
Altman avrebbe confermato che l’azienda ha intenzioni serie e sta studiando l’ipotesi di una versione “sicura” di ChatGPT, ma che non c’è alcuna funzionalità concreta all’orizzonte, né tanto meno una possibile data di lancio della nuova funzione.
Chat cancellate? Non proprio
L’ammissione di Altman è comunque interessante perché, al momento, la privatezza dei dati condivisi dagli utenti è una delle criticità irrisolte di ChatGPT.Il servizio prevede la possibilità di “blindare” alcune conversazioni rendendole temporanee: selezionando l’opzione i dati inseriti non sono utilizzati per aggiornare la memoria del sistema, né per il training dei modelli.Tuttavia i dati delle chat temporanee non sono privati: OpenAI, per poterli elaborare e fornire risposte ha la necessità di leggerli e può archiviarli. Un ordine ingiuntivo legato alla causa intentata all’azienda dal New York Times, inoltre, prevede che al momento sia le chat temporanee sia quelle cancellate degli utenti non possano essere del tutto eliminate. L’ordine ha costretto OpenAI a contravvenire alla propria stessa privacy policy, costringendo l’azienda a detenere a tempo indeterminato tutte le conversazioni.







