Ihr habt es sicher schon bemerkt: Euer Social-Media-Feed zeigt euch oft genau das, was ihr sehen wollt. Aber habt ihr euch schon einmal gefragt, warum das so ist? Die Antwort liegt in den Algorithmen, die unsere Online-Erfahrungen steuern. Und diese tun mehr, als uns nur zu unterhalten – sie beeinflussen unsere Meinungen, unser Weltbild und letztlich unsere Realität. Das klingt wie aus einem schlechten Science-Fiction-Film. Aber wer das nicht erkennt, wird im wahrsten Sinne des Wortes „von Maschinen beherrscht“.

Warum und wie Algorithmen uns versklaven

Die Algorithmen von Facebook, Instagram, TikTok und YouTube sind so programmiert, dass sie uns Inhalte zeigen, die uns „gefallen“. Das heißt vor allem: Inhalte, denen wir unsere Aufmerksamkeit schenken, weil sie emotional aufgeladen und kontrovers sind. Denn das hält uns auf der Plattform. Zwischendurch wird immer wieder Werbung eingeblendet – denn damit verdienen die Unternehmen hinter „Social Media“ Geld; VIEL Geld. Und wir – die Nutzerinnen und Nutzer – sind ihr Kapital.

Habt ihr euch schon einmal auf Instagram ein Reel bis zum Ende angeschaut, in dem es zum Beispiel kritisch um „Klimakleber“ geht? Dann wird euch wahrscheinlich immer wieder etwas angezeigt, das irgendwie damit zu tun hat. Ihr werdet ständig mit dem „neuesten heißen Scheiß“ bombardiert. Solche Themen nehmen irgendwann so viel Platz in eurem Kopf ein, dass für die wirklich wichtigen Dinge im Leben kein Raum mehr ist.

Anzeige


Die Algorithmen schlagen euch also stets neues Material vor, um euch möglichst lange auf der Plattform zu halten. Das klingt zunächst relativ harmlos. Oft ist es das auch, wenn zum Beispiel eure YouTube-Filterbubble so aussieht wie meine:

YouTube-Feed - harmlose Filterbubble aufgrund meiner Gewohnheiten

Vielleicht habt ihr aber auch gemerkt, dass sich (und jetzt wird es ernst) eure Meinung in letzter Zeit geändert hat? Denkt ihr heute über bestimmte Dinge anders als früher? Oder kennt ihr vielleicht jemanden in eurem Umfeld, auf den das zutrifft? Zum Beispiel jemanden, der heute ein rechtspopulistisches Weltbild hat, obwohl er oder sie einmal ganz anders gedacht hat.

Der Weg in die Filter-Bubble: Echokammern der Meinungen

Denn die Folge des Konsums all dieser Inhalte sind sogenannte „Filterblasen“ oder „Echokammern“, in denen man sich bewegt.

Filterbubbles - Die Bildung von Filterblasen durch Social Bots und die Algorithmen der Sozialen Netzwerke

In diesen Bubbles werden uns nur noch Meinungen und Informationen präsentiert, von denen Algorithmen entscheiden, dass wir sie sehen sollten. Schließlich interessieren wir uns ja für solche Beiträge. Wer das nicht erkennt, wird manipuliert. Er bekommt eine Meinung vorgesetzt und merkt es nicht einmal. Im Gegenteil: Oft halten sich die naiven Opfer für besonders aufgeklärt und informiert.

Von Facebook, Youtube oder Instagram werden sie dann häufig in einschlägige Telegram-Gruppen gelotst, in denen sie sich unter „Gleichgesinnten“ wähnen – nicht ahnend, dass sie die ganze Zeit schon von Algorithmen und Social Bots gesteuert werden.

Anzeige

Exkurs: Beispiele für die Bildung von Filterbubbles

In diesem kleinen Exkurs möchte ich anhand von drei Beispielen zeigen, wie Filterblasen entstehen und Meinungen prägen.

1. „Vegane Ernährung ist ungesund“

Die Bubble: In dieser Filterblase werden Artikel, Studien und Meinungen geteilt, die behaupten, eine vegane Ernährung sei mangelhaft und gesundheitsschädlich. Oft werden extreme Einzelfälle hervorgehoben, bei denen eine vegane Ernährung zu gesundheitlichen Problemen geführt hat.

Die Folgen: Die Menschen in dieser Blase könnten dazu neigen, alle veganen Lebensstile als ungesund abzustempeln und sich gegen eine pflanzenbasierte Ernährung zu entscheiden, obwohl es zahlreiche Studien gibt, die deren Vorteile belegen. Und selbst wenn man diese beiseite lässt, bleibt eines: das fühlende Tier, das leben will.

2. „Der durch Menschen verursachte Klimawandel ist eine Lüge“

Die Bubble: In dieser Filterblase wird der wissenschaftliche Konsens zum Klimawandel in Frage gestellt. Artikel und Videos mit alternativen Theorien werden bevorzugt geteilt und diskutiert.

Die Folgen: Diese Haltung kann dazu führen, dass dringend notwendige politische Maßnahmen verzögert werden und die öffentliche Meinung so manipuliert wird, dass sie nicht mehr mit den wissenschaftlichen Fakten übereinstimmt.

“Ja, wir könnten jetzt was gegen den Klimawandel tun, aber wenn wir dann in 50 Jahren feststellen würden, dass sich alle Wissenschaftler doch vertan haben und es gar keine Klimaerwärmung gibt, dann hätten wir völlig ohne Grund dafür gesorgt, dass man selbst in den Städten die Luft wieder atmen kann, dass die Flüsse nicht mehr giftig sind, dass Autos weder Krach machen noch stinken und dass wir nicht mehr abhängig sind von Diktatoren und deren Ölvorkommen. Da würden wir uns schön ärgern.” (Mark-Uwe Kling)

Zap some sats our way – it's all about value for value!

Bitcoin Lightning QR-Code

Unterstütze uns via Bitcoin Lightning Network mit ein paar sats direkt an: [email protected]

3. „Bitcoin ist wertlos“

Die Bubble: In dieser Filterblase werden Artikel und Meinungen geteilt, die Bitcoin und andere Kryptowährungen als nutzlos oder als „Blase“ darstellen. Häufig werden die Volatilität, der hohe Energieverbrauch und die fehlende Regulierung hervorgehoben.

Die Folgen: Menschen in dieser Bubble könnten die potenziellen Vorteile und die disruptive Kraft von Blockchain-Technologien übersehen und sich gegen Investitionen in Kryptowährungen wie Bitcoin entscheiden. Meine persönliche Meinung (keine Finanzberatung!) dazu: Wenn man jetzt 100 Euro in Bitcoin investiert, ist die Chance doch sehr gering, dass die Sats (die „Pfennige“ des Bitcoin), die man dafür bekommt, jemals 50 Euro wert sein werden. ;-)

Jede „Filterblase“ schafft eine verzerrte Realität, die es den Menschen erschwert, eine ausgewogene Sicht auf ein Thema zu gewinnen.

Doch wie Osho so schön sagte:

„Es gibt so viele Welten, wie es Köpfe gibt“.

Deshalb ist es so wichtig, sich bewusst zu machen, dass wir alle in gewisser Weise in solchen Bubbles leben, und aktiv nach vielfältigen Wissensquellen zu suchen.

Gegensätzliche Positionen: Der Nährboden für Konflikte

Durch Algorithmen erzeugte Filterblasen fördern oft extreme Meinungen. Ein Beispiel ist die politische Landschaft: Wer in seiner Bubble vor allem konservative oder liberale Inhalte sieht, kann leicht den Eindruck gewinnen, dass diese Ansichten die „richtigen“ oder gar die „einzigen“ sind.

Ein konkretes Beispiel dafür ist der Aufstieg der AFD in Deutschland. In den sozialen Medien gibt es zahlreiche Gruppen und Diskussionsforen, die die Politik dieser Partei unterstützen. Menschen, die sich in solchen Gruppen bewegen, sehen ihre Ansichten immer wieder bestätigt und radikalisieren sich oft weiter. Interessant ist, dass die AFD auch von Menschen unterstützt wird, denen die Politik der Partei eigentlich schaden würde, wenn sie an die Macht käme. Warum das so ist? Weil die Algorithmen eine Realität schaffen, in der die Politik der AFD als einzige Lösung für bestimmte Probleme erscheint.

Das Ergebnis scheint eine vermeintlich tiefe Spaltung der Gesellschaft zu sein. Menschen, die in unterschiedlichen Bubbles leben, verstehen die Ansichten der „anderen Seite“ oft nicht mehr und sind weniger kompromissbereit. Dies äußert sich nicht nur in hitzigen Online-Diskussionen und Beleidigungen. Es kann auch zu realen Konflikten bis hin zu Gewalt führen.

Manipuliert und versklavt: im Bann von Social Media Algorithmen

Doomscrolling: Der endlose Abgrund der Negativität

Ein weiteres Phänomen, das durch Algorithmen verstärkt wird, ist das sogenannte „Doomscrolling“. Darunter versteht man das endlose Scrollen durch negative Nachrichten oder beunruhigende Inhalte – oft bis tief in die Nacht hinein. Warum tun wir das? Die Algorithmen sind darauf programmiert, unsere Aufmerksamkeit zu fesseln, und nichts fesselt sie so sehr wie Gefahr und Drama.

Online abgeschottet von der Realität

Das Problem ist, dass Doomscrolling unsere psychische Gesundheit erheblich beeinträchtigen kann. Es verursacht Angst, Stress und ein Gefühl der Hoffnungslosigkeit. Außerdem nimmt es uns wertvolle Zeit, die wir für angenehme Aktivitäten nutzen könnten, die unser Wohlbefinden fördern.

Um dem Doomscrolling zu entkommen, kann man sich bewusst Grenzen setzen: Legt feste Zeiten für den Konsum von Nachrichten und sozialen Medien fest und haltet euch daran. Nutzt Apps oder Funktionen, die die Bildschirmzeit begrenzen und achtet auf eure eigene mentale Gesundheit.

Der Sklaverei entkommen: Achtsamkeit und kritische Reflexion

1. Auf sich selbst achten

Der erste Schritt, um sich von den schädlichen Auswirkungen der Algorithmen zu befreien, ist, sich der Manipulation und der eigenen Filterblase bewusst zu werden. Sich fragen: „Warum denke ich so, wie ich denke?“

2. Soziale Medien kritisch hinterfragen

Nehmt nicht alles für bare Münze, was ihr im Internet seht. Prüft die „Fakten“, die euch präsentiert werden und seid skeptisch gegenüber extremen Meinungen. Diese stammen oft von Social Bots. Und es lohnt sich ohnehin nicht, seine Zeit mit Kommentaren auf Facebook, Instagram und Co. zu verschwenden. Am Ende liest sie niemand.

3. Online-Pausen einlegen

Manchmal ist es das Beste, einfach mal abzuschalten (Digital Detox). Nutzt die Zeit vielleicht, um Freunde und Familie zu treffen, etwas zu unternehmen, im Garten zu arbeiten oder ein gutes Buch zu lesen.

4. Alternative Informationsquellen nutzen

Es ist leicht, sich auf eine oder zwei Quellen zu verlassen – vor allem, wenn sie unsere eigenen Ansichten widerspiegeln. Aber genau hier sollten wir anfangen zu diversifizieren. Schaut euch auch internationale News an oder nutzt freie und unabhängige Medien. Das erweitert nicht nur den eigenen Horizont. Es trägt auch zu einem ausgewogenen Blick auf die Welt bei.

5. Setzt euch aktiv mit gegensätzlichen Meinungen auseinander

Es ist bequem, in der eigenen Blase zu bleiben. Aber echter Fortschritt – sowohl persönlich als auch gesellschaftlich – entsteht oft im Dialog mit Andersdenkenden. Das bedeutet nicht, dass man jede Meinung akzeptieren muss. Aber der offene Austausch von Ideen kann zu einem tieferen Verständnis und zu besseren Lösungen für alle führen.

6. Erst denken, dann teilen

In der schnelllebigen Welt der sozialen Medien ist es verlockend, spannende oder provokante Inhalte sofort zu teilen. Aber genau das kann zur Verbreitung von Fehlinformationen beitragen. Nehmt euch die Zeit, Informationen zu prüfen und ihre Quelle zu bewerten. Stellt euch die Frage: „Trägt das Teilen dieses Inhalts zu einer konstruktiven Diskussion bei oder fördert es nur Polarisierung und Spaltung?“ Ihr könnt die Inhalte, die ihr teilen wollt, zum Beispiel durch die drei Siebe des Sokrates filtern:

  1. Wahrheit: Ist die Information wahr?
  2. Güte: Ist sie gut oder nützlich?
  3. Notwendigkeit: Ist es überhaupt notwendig, diese Information zu teilen?

Wenn eine Information alle drei Siebe passiert, ist sie es wert, geteilt zu werden. Wenn nicht, ist es vielleicht besser, sie für sich zu behalten. Ein zeitloses Prinzip, das auch im Zeitalter der sozialen Medien seine Relevanz behält.

Fazit: Die Kontrolle zurückgewinnen

Wir können die Algorithmen der sozialen Medien nicht beeinflussen. Aber wir können unseren Umgang mit ihnen ändern. Wenn wir wachsam und kritisch sind, können wir die Kontrolle zurückgewinnen. Wir können ein erfüllteres Leben führen, wenn wir Entscheidungen aus dem Herzen heraus treffen und nicht auf der Grundlage all der Informationen, die über die „sozialen Netzwerke“ auf uns einprasseln – denn die sind oft genug falsch.

Ich hoffe, dieser Beitrag hilft euch, die unsichtbare Hand der Algorithmen besser zu verstehen und achtsamer mit eurer Online-Zeit umzugehen. Bleibt kritisch und bleibt euch selbst treu!

Nun bin ich gespannt auf eure Erfahrungen und Gedanken zu diesem Thema. Habt ihr schon einmal bewusst versucht, aus eurer eigenen Filterblase auszubrechen? Erzählt eure Geschichten in den Kommentaren!

Bis bald!
Euer Patrick

CC BY-SA 4.0 Die unsichtbare Hand der Algorithmen: Wie Social Media unsere Meinungen prägt von Free Your Family ist lizenziert unter Creative Commons Namensnennung-Weitergabe unter gleichen Bedingungen 4.0 international.