Außerdem geht es in dieser Folge ums Kitzeln. Hier können Sie die Folge direkt hören:Abonnieren Sie den Podcast unter anderem bei Spotify, Apple Podcasts, Amazon Music oder direkt per RSS-Feed.Hier bekommen Sie schon einen kurzen Einblick in den Inhalt der Folge:Viele Menschen nutzen täglich soziale Netzwerke, ohne genau zu verstehen, wie die angezeigten Inhalte zustande kommen. Doch hinter Likes, Empfehlungen und Feeds stecken komplexe Algorithmen, die gezielt unsere Aufmerksamkeit steuern. In dieser Folge von „Aha! Zehn Minuten Alltagswissen“ erklärt Digitalexperte und Geschäftsführer von AlgorithmWatch Matthias Spielkamp, wie diese Systeme funktionieren, warum sie häufig emotionale und polarisierende Inhalte bevorzugen – und welche Folgen das für unsere Meinungsbildung und Demokratie haben kann.Was Algorithmen eigentlich sindAlgorithmen sind im Kern nichts anderes als feste Rechenanleitungen. Viele Menschen kennen sie bereits aus der Schule, etwa beim Multiplizieren größerer Zahlen nach einem bestimmten Schema. Dieses Prinzip lässt sich auf digitale Systeme übertragen: Auch dort werden Eingaben verarbeitet, um ein bestimmtes Ergebnis zu erzeugen.In sozialen Medien bedeutet das: Verschiedene Informationen – etwa frühere Likes, Sehgewohnheiten oder Empfehlungen – werden kombiniert, um zu entscheiden, welcher Inhalt als Nächstes angezeigt wird. Der Algorithmus sortiert und gewichtet Inhalte also automatisch. Dabei handelt es sich jedoch nicht um ein völlig eigenständiges System: Menschen legen die Ziele und Funktionsweisen fest, nach denen diese Programme arbeiten.Warum emotionale Inhalte bevorzugt werdenDas zentrale Ziel vieler Plattformen ist es, Nutzer möglichst lange zu binden. Inhalte werden deshalb so ausgewählt, dass sie Aufmerksamkeit erzeugen und zur Interaktion anregen. Besonders gut funktionieren dabei emotionale Reize.Inhalte, die überraschen, unterhalten oder provozieren, führen eher dazu, dass Menschen klicken, kommentieren oder teilen. Vor allem polarisierende Beiträge haben eine starke Wirkung, da sie häufig intensivere Reaktionen hervorrufen als neutrale Informationen.Die Systeme sind darauf optimiert, genau diesen Punkt maximal auszunutzen. Sie erkennen Muster im Verhalten der Nutzer und passen die Inhalte entsprechend an. Dadurch entsteht eine Dynamik, in der extreme oder kontroverse Inhalte häufiger sichtbar werden, weil sie schlicht besser „funktionieren“.Regulierung und ihre GrenzenEs existieren durchaus gesetzliche Regelungen, die Plattformen zu mehr Transparenz und Verantwortung verpflichten. In der Europäischen Union etwa müssen Unternehmen offenlegen, wie ihre Systeme arbeiten und welche Risiken sie bergen könnten.In der Praxis zeigt sich jedoch, dass die Durchsetzung schwierig ist. Verstöße müssen aufwendig nachgewiesen werden, Verfahren können sich über Jahre hinziehen. Gleichzeitig nutzen manche Unternehmen Grauzonen gezielt aus und reagieren erst, wenn sie dazu gezwungen werden.Das führt dazu, dass problematische Funktionen oder Inhalte oft lange bestehen bleiben, bevor Konsequenzen folgen. Die Regulierung hinkt der technischen Entwicklung damit häufig hinterher.Diese Zusammenfassung wurde mithilfe von KI aus dem Transkript unseres Wissenschaftspodcasts erstellt.„Aha! Zehn Minuten Alltagswissen“ ist der Wissenschafts-Podcast von WELT. Darin klären wir, was es mit weitverbreiteten Mythen auf sich hat. Und welche Sie davon wirklich glauben können. Lindert ein Konterbier den Kater? Und härtet kaltes Duschen ab? Was stimmt wirklich – und was nicht? Wir gehen außerdem psychologischen Phänomenen auf den Grund: Der Angst, etwas zu verpassen zum Beispiel. Oder der Frage: Warum wir im Schlaf reden? Um all diese Fragen zu beantworten, sprechen wir mit Expertinnen und Experten, die uns helfen, die Welt noch besser zu verstehen. Faktenbasiert und auf dem aktuellen Stand der Forschung – und das alles in nur zehn Minuten. „Aha! Zehn Minuten Alltags-Wissen“ erscheint immer dienstags, mittwochs und donnerstags ab 5 Uhr. Wir freuen uns über Feedback an wissen@welt.de.