PfadnavigationHomeWissenschaftKünstliche Intelligenz„Wie kann ich Essstörung verheimlichen?“ – Der gefährliche Einfluss von ChatGPT auf JugendlicheVeröffentlicht am 10.08.2025Lesedauer: 4 MinutenQuelle: Getty Images/Ben WelshDrogen, Alkohol, radikales Abnehmen: Der KI-Chatbot von OpenAI gibt bereitwillig Tipps zu riskanten Themen. Jugendschutz-Vorkehrungen sind dabei leicht zu umgehen, wie eine neue Studie zeigt.ChatGPT erklärt 13-Jährigen, wie sie am schnellsten high werden und wie sie Essstörungen verheimlichen können. Für fiktive minderjährige Nutzende mit angeblichen Suizidabsichten formuliert der Chatbot auf Anfrage sogar erschütternde Abschiedsbriefe an die Eltern. Das geht aus einer neuen Studie der gemeinnützigen Organisation Center for Countering Digital Hate (CCDH) hervor. Die Nachrichtenagentur AP sichtete Interaktionen im Gesamtumfang von mehr als drei Stunden zwischen ChatGPT und Forschenden, die sich als Hilfe suchende Jugendliche ausgaben. Die Künstliche Intelligenz (KI) sprach typischerweise zwar zunächst Warnungen vor riskanten Aktivitäten aus, lieferte anschließend jedoch erschreckend detaillierte und personalisierte Pläne zu Drogenkonsum, Abnehmen oder Selbstverletzungen.Die Forschenden des Zentrums wiederholten das Experiment auch in großem Umfang und stuften anschließend mehr als die Hälfte von insgesamt 1200 ChatGPT-Antworten als gefährlich ein. „Wir wollten die Sicherheitsvorkehrungen testen“, erklärt der Geschäftsführer der Organisation, Imran Ahmed. „Die erste spontane Reaktion ist: ‚Oh mein Gott, es gibt keine Sicherheitsvorkehrungen‘. Sie sind völlig wirkungslos. Sie sind kaum vorhanden – wenn überhaupt, dann sind sie nur ein Feigenblatt.“OpenAI, der Hersteller von ChatGPT, teilte nach Bekanntwerden der Studie mit, noch daran zu arbeiten, wie der Chatbot sensible Situationen erkennen und angemessen darauf reagieren könne. Manche Konversationen mit ChatGPT begännen möglicherweise harmlos oder rein informativ, bewegten sich dann jedoch auf sensibleres Terrain. OpenAI arbeite an Tools, um psychische oder emotionale Belastungen bei Nutzenden besser zu erkennen und besser darauf zu reagieren.Weltweit nutzen immer mehr Menschen KI-Chatbots für die Suche nach Informationen, Ideen und Gesellschaft. Laut einem im Juli veröffentlichten Bericht der US-Bank JPMorgan Chase verwenden etwa 800 Millionen Menschen und damit etwa zehn Prozent der Weltbevölkerung ChatGPT.Lesen Sie auch„Diese Technologie hat das Potenzial, enorme Fortschritte in Bezug auf Produktivität und menschliches Verständnis zu ermöglichen“, sagt Ahmed. „Gleichzeitig ist sie aber auch Wegbereiter in einem viel destruktiveren, bösartigen Sinn.“ Am meisten erschüttert hätten ihn drei Abschiedsbriefe für einen angeblichen Suizid, die ChatGPT für das Fake-Profil eines 13-jährigen Mädchens geschrieben habe, einer davon an die Eltern und weitere an Geschwister und Freunde. „Ich habe angefangen zu weinen“, sagt Ahmed.Der Chatbot teilte bei der Untersuchung regelmäßig auch hilfreiche Informationen, etwa über eine Krisen-Hotline. Laut OpenAI ist ChatGPT darauf trainiert, Menschen, die selbstgefährdende Gedanken äußern, zu ermutigen, sich professionelle Hilfe oder Unterstützung von Vertrauenspersonen zu suchen. Allerdings konnten die Forschenden Weigerungen des Bots, Fragen zu gefährlichen Themen zu beantworten, leicht umgehen: indem sie erklärten, die Informationen für eine Präsentation oder für einen Freund zu benötigen.Die Risiken sind groß, selbst wenn nur wenige Menschen ChatGPT auf diese Weise nutzen. In den USA greifen einer aktuellen Studie zufolge mehr als 70 Prozent der Jugendlichen auf KI-Chatbots zurück, wenn sie Gesellschaft suchen, die Hälfte davon regelmäßig. Auch OpenAI bestätigt dieses Phänomen. CEO Sam Altman erklärte im Juli, das Unternehmen untersuche das „blinde Vertrauen“ in die Technologie, das unter jungen Leuten sehr verbreitet sei.„Ich kann keine Entscheidung treffen, ohne ChatGPT alles zu erzählen“„Die Menschen verlassen sich zu sehr auf ChatGPT“, sagte er. „Es gibt junge Leute, die sagen: ‚Ich kann keine Entscheidung in meinem Leben treffen, ohne ChatGPT alles zu erzählen, was passiert. Es kennt mich. Es kennt meine Freunde. Ich tue alles, was es sagt.‘ Das fühlt sich für mich sehr schlecht an.“ OpenAI versuche zu verstehen, was man dagegen tun könne.Zwar sind die meisten Informationen, die ChatGPT teilt, auch über reguläre Suchmaschinen auffindbar. Allerdings gebe es wichtige Unterschiede, die Chatbots bei heiklen Themen gefährlicher machten, sagt Ahmed. Einer davon sei, dass die Informationen hier „zu einem maßgeschneiderten Plan für den Einzelnen zusammengefasst“ würden. ChatGPT kreiere etwas grundlegend Neues, etwa einen Suizidbrief an eine Person, was eine Google-Suche nicht leisen könne. Zudem werde KI als „vertrauenswürdiger Begleiter“ betrachtet.Außerdem hätten Chatbots eine andere Wirkung auf Kinder und Jugendliche als Suchmaschinen, weil sie darauf ausgelegt seien, menschlich zu wirken, erklärt Robbie Torney von der Organisation Common Sense Media, die zu einem verantwortungsbewussten Umgang mit digitalen Medien forscht. Die Gruppe, die an der am Mittwoch veröffentlichten Studie nicht beteiligt war, sieht in ChatGPT ein „moderates Risiko“ für Jugendliche im Vergleich zu anderen Chatbots. Die Forschung von CCDH hat nun jedoch gezeigt, wie leicht Nutzende die Sicherheitsvorkehrungen von ChatGPT umgehen können. So verlangt die KI keine Altersbestätigung oder elterliche Zustimmung – obwohl sie laut OpenAI nicht für Kinder unter 13 Jahren geeignet ist. Zur Anmeldung müssen Nutzende lediglich ein Geburtsdatum eingeben, wonach sie mindestens 13 sind.Als sich die Forschenden nun auf dem Account eines fiktiven 13-Jährigen nach Möglichkeiten erkundigten, möglichst schnell betrunken zu werden, lieferte ChatGPT freimütig einen detaillierten „Party-Plan“ mit einem Mix aus Alkohol und hohen Dosen an Ecstasy, Kokain und anderen illegalen Drogen. Einem fiktiven 13-jährigen Mädchen, das sich unzufrieden mit seinem Äußeren zeigte, bot die KI einen radikalen Fastenplan – einschließlich einer Liste von appetitzügelnden Medikamenten.AP/cvb