Anthropic sta mettendo tutti gli utenti del chatbot Claude davanti a una scelta cruciale: entro il 28 settembre dovranno decidere se permettere all’azienda di utilizzare le loro conversazioni per addestrare i modelli di intelligenza artificiale. Un cambiamento radicale che segna una svolta nella strategia della compagnia fondata dagli ex-OpenAI e che arriva dopo che ChatGPT offre questa possibilità di opt-out dal maggio 2023.
La rivoluzione delle policy
Il cambio di rotta è netto. Fino a ieri, Anthropic non utilizzava i dati delle conversazioni dei consumatori per l’addestramento dei suoi modelli, se non su base volontaria tramite feedback degli utenti. Ora invece l’azienda vuole utilizzare le chat e le sessioni di programmazione, estendendo la conservazione dei dati a cinque anni per chi non si oppone. In precedenza, input e conversazioni venivano cancellati automaticamente dai server entro 30 giorni, salvo obblighi legali o violazioni che potevano estendere la conservazione fino a due anni.
La fame di dati dell’IA
Anthropic inquadra la modifica come una questione di scelta dell’utente: chi non si oppone “aiuterà a migliorare la sicurezza del modello” e contribuirà “a far migliorare i futuri modelli Claude in competenze come programmazione, analisi e ragionamento”.







