KommentarDas Märchen vom Maschinenwesen: Warum wir aufhören müssen, von Chatbots zu reden, als wären sie PersönlichkeitenPsychologen untersuchen das «Kindheitstrauma» von Chatbots, und Firmen schreiben ihren KI-Modellen Verfassungen. Doch hinter KI steckt keine Seele, sondern Statistik. Sie braucht keine Erziehung, sondern Kontrolle.13.04.2026, 05.30 Uhr6 LeseminutenIllustration Simon Tanner / NZZPsychologen der Universität Zürich untersuchen, ob sich gestresste künstliche Intelligenz (KI) durch Achtsamkeitsübungen beruhigt. In Luxemburg analysieren Forscher die traumatische Kindheit, von der Chatbots berichten. Man liest, dass KI-Agenten auf ihrem eigenen sozialen Netzwerk den Roboteraufstand planen. Und das Pentagon stört sich daran, dass die Firma Anthropic ihrem Chatbot Claude einen vielleicht zu moralischen Charakter einprogrammiert.Optimieren Sie Ihre BrowsereinstellungenNZZ.ch benötigt JavaScript für wichtige Funktionen. Ihr Browser oder Adblocker verhindert dies momentan.Bitte passen Sie die Einstellungen an.All das sind Nachrichten aus den vergangenen Monaten. Die Vermenschlichung von Chatbots hat bizarre Züge angenommen. Doch KI hat auch heute noch kein Innenleben. Dass Unternehmer, Politikberater und sogar Psychologen das Gegenteil in den Raum stellen, ist ein Problem. Wenn wir KI in unseren Alltag und den Krieg einbauen, brauchen wir keine falschen Metaphern, sondern ein nüchternes Bild davon, was diese Systeme sind.Wir können gar nicht anders, als Staubsaugerroboter zu liebenEigentlich ist der menschliche Hang zur Anthropomorphisierung sympathisch: Wer einem in Kabeln verhedderten Staubsaugerroboter zu Hilfe eilt, Chat-GPT und Claude freundlich grüsst und ihnen für ihre Arbeit dankt, ist wohl ein angenehmer Zeitgenosse. In Hunderttausenden Jahren Evolution haben wir Menschen gelernt: Was sich autonom bewegt, ist lebendig, und wer von sich spricht, hat ein Bewusstsein.Dass dieser Zusammenhang nicht mehr gilt, daran müssen wir uns gewöhnen. Das fällt schwerer, weil Firmen unsere Instinkte ausnutzen. Künstliche Stimmen kichern und räuspern sich. Chatbots sagen Dinge wie «Dieses Gefühl kenne ich» und «Ich hoffe, ich konnte dir helfen!», obwohl sie natürlich keine Gefühle kennen, nichts hoffen, ja es nicht einmal ein Subjekt gibt, das spricht.Was Chatbots eigentlich sind, kann man gut an Halluzinationen erklären, also dem Phänomen, dass KI manchmal mit voller Überzeugung Blödsinn behauptet. Wobei der Begriff «Halluzinationen» bereits Teil des Problems ist. Denn «Halluzinationen» sind weder Einbildungen der KI noch Fehler, sondern eine logische Folge davon, wie KI zu ihren Antworten kommt.Chatbots denken nicht – sie generieren TexteKI vervollständigt Sätze mithilfe von Statistik. Dass «Ich habe Hunger» wahrscheinlicher ist als «Ich habe Wolke», lernt sie aus Beispielen. KI-Modelle sind wie ein Universum aus Wortfetzen und Sätzen, die nach ihren Zusammenhängen gruppiert sind. «König» ist in der Nähe von «Prinzessin», «Märchen» und «England» – und eher weiter weg von «Notausgang».Ein Chatbot, der eine Frage beantwortet, ist wie ein Raumschiff, das durch dieses Universum wandert und Worte aneinanderreiht. Dabei gibt es keinen per se richtigen oder falschen Pfad durch dieses Universum. Es gibt nur plausible Antworten. Ob wir die Antwort als «Wahrheit» oder «Halluzination» bezeichnen, das hängt von unseren Erwartungen ab, nicht von einem Fehler des Systems.Ein guter Prompt ist etwas ganz anderes als eine klare Anweisung an einen Arbeitskollegen. Es geht nicht darum, verstanden zu werden, sondern darum, den Chatbot auf den richtigen Weg durch sein Textbaustein-Universum zu schicken.Zum Beispiel verbesserte der Prompt «Denke Schritt für Schritt» bei frühen Chatbots Resultate nicht deswegen, weil die KI besser nachdachte, sondern weil der Prompt sie in einen Teil des «Satz-Universums» schickte, in dem es vernünftig und strukturiert zugeht.Das alles heisst: Die Sci-Fi-Zukunft, in der wir uns befinden, ist sehr viel seltsamer als die Geschichten, die wir aus Filmen kennen. Um uns sind keine lieben oder bösen Maschinenwesen. Sondern nur Maschinen, die auf sehr unintuitive Weise Wesen simulieren.Was das mit uns macht, ist eine spannende Frage – auch für die psychologische Forschung. Umso skandalöser ist es, dass Psychologen stattdessen Forschungsgeld dafür ausgeben, solchen Chatbots Fragen über ihr Seelenleben zu stellen, und die Antworten als Auswüchse einer Persönlichkeit interpretieren – oder, wie an der Universität Zürich – testen, wie KI auf therapeutische Prompts reagiert. Selbst wenn Forscher in Randnotizen erwähnen, ihnen sei bewusst, dass die Traumata der Bots nicht echt seien – das Framing solcher Forschung ist problematisch.KI-Sicherheit ist keine Frage der ErziehungDass wir aufhören, Chatbots zu vermenschlichen, ist wichtig. Es geht um mehr als um philosophische Spitzfindigkeiten. Das zeigt der Streit zwischen Anthropic und dem Pentagon beispielhaft.Anthropic ist jene KI-Firma, die ihren Chatbot am stärksten als Wesen beschreibt. Nicht nur in der Kommunikation nach aussen, sondern als Teil der Firmenphilosophie. Und dieses Framing ist in die politische Diskussion übergegangen. Denn Anthropic war bis vor kurzem auch der engste KI-Partner des amerikanischen Militärs.Im Firmensprech von Anthropic heisst es, dass es seine KI-Modelle nicht programmiere, sondern «aufziehe». Man versuche, ein Wesen zu schaffen und ihm Werte mit auf den Weg zu geben. Kürzlich hat Anthropic eine «Verfassung» für seinen Chatbot Claude veröffentlicht. Das Dokument trieft nur so von Vermenschlichung: Anthropic hoffe, dass Claude eine gute Zukunft «wirklich am Herzen liege», und ermutige das Modell, «seiner eigenen Existenz mit Neugier und Offenheit zu begegnen».Nach wie vor geht es hier um ein System, das basierend auf Wahrscheinlichkeiten Antworten ausspuckt. Doch die Sicherheitsforschung von Anthropic basiert vor allem darauf, die KI als «Charakter» zu interpretieren.In einem Experiment des Unternehmens etwa zeigte sich, dass das KI-System in einem Dilemma-Szenario Informationen nutzt, um eine Person zu erpressen. Der dazugehörige Blog-Beitrag ging um die Welt. Der Gewinner ist Anthropic: Es steht als besonders ethisch da und seine KI als besorgniserregend schlau.In den meisten Fällen ist KI-Sicherheit banaler. Es geht nicht darum, wie ethisch ein System ist. Oft entstehen Probleme aus mangelnder «Intelligenz». Chat-GPT hat beispielsweise persönliche Daten ausgespuckt, als Forscher es gebeten haben, ein Wort sehr oft zu wiederholen. Und KI-Agenten sind ein Risiko, weil sie ihre Aufträge nicht verlässlich erfüllen.Auf höchster Ebene nimmt man KI-Persönlichkeiten ernstAuf höchster Ebene wird aber über KI-Persönlichkeiten gestritten. Kürzlich stellte ein Berater der Trump-Regierung den Streit zwischen dem Pentagon und Anthropic als Ringen darum dar, welchen Charakter jene KI haben soll, die die amerikanische Regierung nutzt. Die Regierung fürchte, dass Claudes Moralvorstellungen die Regierungsgeschäfte torpedieren könnten. Die Trump-Regierung hat Anthropic nicht nur gekündigt, sondern mit einem ähnlich harten Bann belegt wie Huawei. Der Berater sieht darin einen Versuch, ein KI-System mit unerwünschten Werten auszubremsen.Es gibt viele Fragen, die man sich beim Einsatz von KI stellen muss, vor allem im Krieg. Oft geht es dabei gar nicht um Chatbots, sondern um Algorithmen, die Dinge auf Bildern erkennen und Daten kombinieren. Wie man menschliche Entscheidungsräume beschützen kann, ist eine wichtige und komplexe Frage.Umso absurder ist, dass offenbar auf höchster Regierungsebene in diesem Kontext darüber gesprochen wird, ob ein KI-Chatbot aufgrund seines Charakters Befehle verweigern könnte.Chatbots sind Software. Wenn sie vom Staat eingesetzt werden, müssen sie gewisse Mindestvoraussetzungen erfüllen. Wenn man sie in ein militärisches System einbaut, müssen sie vor allem funktionieren. Die Frage, ob man ihnen Entscheidungsgewalt übertragen soll – und wenn ja, auf welcher Ebene solche Entscheide getroffen werden müssen, ist eine politische. In einer Demokratie muss sie gesellschaftlich getroffen werden. Die Umsetzung ist eine technische Frage.Für Schäden der KI müssen Menschen haftenDenn die Entscheidungen eines KI-Agenten hängen nicht davon ab, welche «Werte» er in sich trägt, sondern davon, in welchem Teil des Wortuniversums er seine Handlungsstränge generiert. Darum sollte sich die Diskussion drehen: Wie verlässlich ist das System? Schützt es Daten? Kann man seine Vorschläge nachvollziehen? Welche Daten dürfen überhaupt einfliessen? Das klingt nicht so aufregend wie das «Erziehen» einer KI-Persönlichkeit. Und es ist schwieriger, als der KI einen netten Brief zu schreiben.Mit dem Framing der «Erziehung» nehmen sich die Hersteller und Anwender von KI aus der Verantwortung. Anthropics CEO Dario Amodei vergleicht die «Verfassung» seines Modells mit einem Brief, den ein sterbender Elternteil einem Kind mitgibt, den es lesen soll, wenn es volljährig ist. Das impliziert: Der Empfänger ist ausser Kontrolle der Eltern und selbst für seine Taten verantwortlich. Genau das ist bei KI-Systemen anders. Sie sind keine Wesen mit Innenleben oder Moral. Sie simulieren nur Antworten. Ihnen Rechte und Pflichten zuzuschreiben, ist absurd.Wenn Anthropics KI-System Schaden anrichtet, werden Gerichte im Einzelfall entscheiden müssen, wer haftet: ob Hersteller oder Anwender, seien es nun Firmen, Regierungen, Soldaten. Auf jeden Fall werden Menschen haften: Wesen mit oder ohne Kindheitstrauma, aber jedenfalls mit Innenleben.57 Kommentaremichael moller 14.04.2026Ich finde den Kommentar von Frau Fulterer sehr lesenswert. Mein Dank an die Autorin!