Mal eben Chat-GPT fragen: Es ist verführerisch, den Chatbot in der Küche um einen schnellen Rat zu bitten, etwa weil das Backpulver für den Kuchen fehlt. Doch dass dessen souverän formulierte Antworten nicht immer zuverlässig, sondern mitunter sogar gefährlich sein können, musste nun ein 60-jähriger Mann aus den USA erfahren. Sein Fall wurde von Medizinern um Audrey Eichenberger von der University of Washington kürzlich in der Fachzeitschrift Annals of Internal Medicine: Clinical Cases beschrieben. Ein Ernährungstipp von Chat-GPT führte bei dem Mann zu einer Vergiftung, die heute eigentlich kaum noch auftritt.