OpenAI rafforza le misure di sicurezza in risposta ai sospetti di spionaggio aziendale, in particolare dopo aver accusato la startup cinese DeepSeek di aver copiato i suoi modelli.

Secondo il Financial Times che riporta la notizia, le modifiche includono controlli più stringenti sulle informazioni sensibili, una verifica più approfondita del personale e l'espansione dei team di sicurezza.

Secondo la testata, l'azienda ora limita l'accesso a informazioni cruciali attraverso pratiche informatiche specifiche, tra cui quelle che isolano la tecnologia proprietaria in ambienti protetti con controlli biometrici. Inoltre, all'interno degli uffici non è permesso connettersi a internet, "a meno che non sia esplicitamente approvato".

OpenAI ha anche aumentato la sicurezza fisica nei data center, intensificando i controlli sul personale e potenziali reclute. A gennaio, la società americana guidata da Sam Altman aveva puntato il dito contro la rivale cinese DeepSeek, rea di aver copiato i modelli di intelligenza artificiale usati da ChatGpt, per realizzare il suo chatbot a basso costo.

La strategia di OpenAI si inserisce in un contesto di crescente preoccupazione per il furto di tecnologia legata all'intelligenza artificiale. Lo scorso ottobre, la compagnia ha assunto Dane Stuckey come nuovo responsabile della sicurezza informatica, lo stesso ruolo che il manager ha ricoperto in Palantir, il gruppo di data intelligence che lavora in ambito militare e governativo. L'anno scorso, infine, l'ex generale dell'esercito americano Paul Nakasone è stato nominato nel consiglio di amministrazione di OpenAI per supervisionare il livello di difesa contro le minacce alla cybersecurity.