KI-Tools sind im akademischen Alltag für viele längst selbstverständlich. Einheitliche Richtlinien für den Umgang mit der neuen Technologie fehlen aber häufig noch. Einige Prüfungsämter setzen sogar selbst KI ein, um Plagiate aufzudecken, während die Nutzung in wissenschaftlichen Arbeiten immer öfter reguliert wird. Jetzt hat sich auch das Forschungsarchiv Arxiv dazu entschieden, strenger mit KI-generierten Werken umzugehen.Anzeige
Online-Archiv führt neue KI-Richtlinien ein
Arxiv ist ein weit verbreitetes, offenes Archiv für wissenschaftliche Vorabveröffentlichungen. Wie Techcrunch berichtet, wurde die Plattform mehr als 20 Jahre lang von der Cornell University gehostet und hat sich zu einem wichtigen Kanal für den Forschungsaustausch in Bereichen wie Informatik und Mathematik entwickelt. Aktuell wandelt sie sich zu einer unabhängigen, gemeinnützigen Organisation um – und hat in diesem Zug beschlossen, strenger gegen den unkritischen Einsatz großer Sprachmodelle (LLM) vorzugehen.
Arxiv hat schon erste Maßnahmen ergriffen, um der wachsenden Zahl minderwertiger, KI-generierter Artikel entgegenzuwirken. So müssen Erstautor:innen inzwischen eine Empfehlung etablierter Autor:innen vorweisen. Thomas Dietterich, der Vorsitzende der Informatikabteilung von Arxiv, schrieb zudem kürzlich in einem Beitrag auf X: „Wenn eine Einreichung unwiderlegbare Beweise dafür enthält, dass die Autor:innen die Ergebnisse der LLM-Generierung nicht überprüft haben, bedeutet das, dass wir der Arbeit nicht vertrauen können.“ Als Beispiel für solche Beweise nannte er halluzinierte Quellenangaben.Anzeige






