Anthropic, l’azienda che sviluppa gli LLM della serie Claude, ha bloccato l’accesso di OpenAI alle interfacce di programmazione (API) di tutti i suoi modelli. Secondo quanto sostenuto da Anthropic, gli ingegneri della concorrenza avrebbero usato le API per sviluppatori, incluse alcune con accesso a funzioni speciali, per allenare e migliorare le performance dei propri modelli.

Un portavoce di Anthropic ha riferito che lo staff tecnico di OpenAI avrebbe connesso Claude a strumenti interni e che lo utilizzava in maniera impropria in vista del lancio di GPT-5. Una simile operazione viola i termini d’uso di Claude, che impediscono di utilizzare i modelli per “realizzare un prodotto concorrente, incluso per addestrare modelli di intelligenza artificiale” oppure per “fare reverse engineering o duplicare” i servizi offerti da Anthropic.

GPT-5 è il nuovo e (presumibilmente) potentissimo modello che OpenAI dovrebbe rilasciare a breve. Se le aspettative alimentate dalle dichiarazioni iperboliche di Sam Altman nelle ultime settimane si dovessero rivelare realistiche, GPT-5 rappresenterà un salto in avanti enorme rispetto agli attuali modelli commerciali. In particolare il nuovo LLM promette risultati sorprendenti nella programmazione, un caso d’uso e un segmento di mercato al momento dominato da “Claude Code”, l’assistente per lo sviluppo software basato sui modelli Claude Opus 4 e Sonnet 4. Grazie all’accesso alle API, secondo fonti citate da Wired, OpenAI conduceva test per valutare le capacità di Claude in ambiti come la programmazione e la scrittura creativa, confrontando le risposte con quelle dei propri modelli di intelligenza artificiale generativa. Inoltre gli ingegneri di Altman valutavano e confrontavano le reazioni a prompt “problematici”, in particolare in categorie come gli abusi su minori e i contenuti pedopornografici, l’autolesionismo, la diffamazione.