Menschlicher Fehler: Anthropic veröffentlicht aus Versehen einen Teil seiner geheimen SoftwareDas amerikanische KI-Unternehmen gibt sich als besonders sicherheitsbewusst. Ein peinlicher Leak kratzt an diesem Image.03.04.2026, 05.30 Uhr5 LeseminutenMit seinem Chatbot Claude und seinem KI-Agenten für Programmierer Claude Code erfreut sich das KI-Startup Anthropic wachsender Beliebtheit.GettyKurz vor Ostern hat das amerikanische KI-Unternehmen Anthropic Freund und Feind mit einem unerwarteten Geschenk beglückt: Der geheime Quellcode des KI-Agenten der Firma namens Claude Code gelangte während eines Updates aus Versehen an die Öffentlichkeit.Optimieren Sie Ihre BrowsereinstellungenNZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.Bitte passen Sie die Einstellungen an.Anthropic hat sich stets für die Geheimhaltung der technischen Details seiner KI-Produkte starkgemacht und sich dabei oft auf die nationale Sicherheit und den Wettbewerb zwischen den USA und China berufen. Der jüngste Leak könnte für die Firma deshalb einen erheblichen Reputationsschaden bedeuten. Konkurrenten und Hacker könnten gleichermassen von den versehentlich offengelegten Geheimnissen profitieren.Claude Code ist die Software von Anthropic, die Computerprogramme automatisch auf Anfrage von Nutzern schreibt. Das KI-basierte Tool erfreut sich seit seiner Veröffentlichung stark wachsender Beliebtheit. Laut Hochrechnungen von Anthropic ist Claude Code auf dem Weg, dieses Jahr 2,5 Milliarden Dollar an Umsatz abzuwerfen – rund 15 Prozent des erwarteten Gesamtumsatzes des Unternehmens.Eine Verkettung von Fehlern führt zum LeakDer Leak ist die Folge eines menschlichen Fehlers, wie Anthropic umgehend mitteilte. Es handle sich also nicht um einen Hackerangriff. Auch seien weder Nutzer- oder Kundendaten betroffen noch die Details der KI-Modelle, auf denen Claude Code selbst sowie der Chatbot der Firma, Claude, basierten.Was der Leak offenbarte, ist das, was KI-Experten bildlich als das «harness» von KI-Agenten wie Claude Code bezeichnen. Wenn man sich die verschiedenen KI-Modelle einer Firma wie Anthropic als Zugpferde vorstellt, ist dieses «Geschirr» die Software, die um die KI-Modelle gelegt wird und es dem Nutzer ermöglicht, die «Zugpferde» zu lenken, etwa um Computerprogramme möglichst schnell und effizient zu schreiben. Das «Geschirr» verwaltet im Hintergrund verwendete Dateien, ruft zusätzlich benötigte Software auf und steuert, welches der verfügbaren KI-Modelle für welche Teilaufgabe zum Einsatz kommt.— Chaofan Shou (@Fried_rice) March 31, 2026