Wer lenkt die Wahrheit? Wie Plattformen die Impfdebatte steuern und Betroffene zum Schweigen bringen
frontiersin.org/journals/com…
Es ist mutig von der TU München überhaupt ein solches Studienkonzept durchzuführen, geschweige denn auch noch zur Veröffentlichung zu bringen. Meinen großen Respekt dafür.
Wir sind keine Bots, wir sind Menschen – so klingt es seit Jahren aus einer Community, die es eigentlich gar nicht geben dürfte:
Impfgeschädigte, die nach einer COVID‑19‑Impfung gesundheitliche Schäden beklagen und online um Gehör ringen.
Wer diesen Stimmen zuhört, erkennt ein wiederkehrendes Muster: Beiträge, die Zweifel an der Corona‑Politik äußern oder auf Nebenwirkungen hinweisen, verschwinden, werden in der Sichtbarkeit unterdrückt und bei besonders das Aufsehen erregenden wissenschaftlichen Publikationen wird in besonderem Maße dann in der Parallelschine mit überbordend viel Geld und Einsatz die zustimmende Linien eingekauft und überlendend sichtbar gemacht, dass sich Geschädigte fühlen, wie in einem falschem Film.
Eine neue Studie der TU München liefert nun empirische Anhaltspunkte dafür, dass dieses Gefühl der Unsichtbarkeit kein Zufall ist – und dass nicht „Trollfabriken“, sondern Plattformregeln den Ausschlag gaben.
Die Autoren untersuchten den deutschsprachigen Diskurs rund um
#NoCovid auf X (vormals Twitter) und kommen zu zwei Kernbefunden: Erstens gab es zwar koordinierte Aktivitäten, doch diese trieben den übrigen Diskurs nicht an. Zweitens wirkte die Plattformpolitik selbst – sprich: der Empfehlungsalgorithmus – als Filter, der kritische
#NoCovid‑Positionen systematisch im Sichtbarkeitsnachteil hielt.
Wörtlich heißt es, X habe die Sichtbarkeit anti‑NoCovid‑Standpunkte begrenzt; die koordinierte Aktivität habe den nicht‑koordinierten Diskurs nicht getrieben. Das verschiebt die Schuldfrage: Weg vom Bild der allmächtigen Desinformationsnetzwerke, hin zu den Regeln der Bühne, auf der wir sprechen direkt zu
@elonmusk. Wird dort etwa Wasser gepredigt und mit dem Establishment heimlich Wein gesoffen?
Die Analyse beruht auf einem Datensatz von 102.147 Tweets aus den Jahren 2020 bis 2023, erhoben über die damalige Academic API. Identifiziert wurden 4.523 Accounts mit wiederkehrenden Koordinationsmustern (u. a. gleichzeitiges Retweeten, Hashtag‑Synchronität, identische Antworten) – genau jene Aktivitäten, die in Debatten gern als „koordiniertes inauthentisches Verhalten“ etikettiert werden. Doch beim Blick auf die Wirkung verpufft der Schrecken:
In einer Granger‑Kausalitätsanalyse zeigte sich kein kausaler Einfluss von Koordination auf den restlichen Diskurs; die p‑Werte (0,5905 und 0,4069) blieben klar über dem Signifikanzniveau. Mit anderen Worten: Das koordiniert Verstärkte sprang nicht in die breite Unterhaltung über – es blieb in seinen Clustern. Für die Öffentlichkeit, die in Echtzeit um Deutung ringt, ist das eine überraschend nüchterne Nachricht.
Die Zeitreihen‑Grafik in Abbildung 3 (Seite 8) illustriert genau das: Spitzen koordinierten Handelns gehen nicht in sprunghaftes Wachstum organischer Tweets über – ein Befund, der, bei aller methodischen Vorsicht, die gängigen Dramatisierungen relativiert.
Das zweite Ergebnis ist politisch brisanter:
Nicht Koordination trieb Sichtbarkeit, sondern der Algorithmus. Die Forscher verglichen – gewichtet nach Followerzahl – wie viele Retweets pro 100 Follower kritische bzw. befürwortende
#NoCovid‑Tweets erzielen. Ergebnis: Im „pro‑NoCovid‑Cluster“ kamen rund zwei Retweets je 100 Follower zusammen, im „anti‑NoCovid‑Cluster“ nur etwa 0,5. Eine Vier‑zu‑Eins‑Schieflage, die nach gängiger Logik der „Social‑Proof“-Filter erklärt werden kann:
Was im jeweiligen Netzwerk schon gut ankommt, bekommt noch mehr Reichweite; Minderheitenpositionen geraten ins Leere. Abbildung 4 (Seite 9) zeigt diese Differenz als Verteilung. Die Autoren formulieren es klar: Der Algorithmus behandelt unterschiedliche Inhalte unterschiedlich; die Zurücksetzung des kritischen Clusters sei vom Netzwerk unabhängig, weil nach Followern gewichtet wurde. Zugleich benennen sie alternative Faktoren (Publikumszuschnitt, Medienframing), die mitwirken könnten – juristisch gesprochen: Es handelt sich um starke Indizien, nicht um einen mathematischen Endbeweis.
Für Impfgeschädigte bedeutet diese Architektur der Sichtbarkeit eine zweite Unsichtbarkeit. Vor dem Hintergrund der sog. Wahrheitskampagnen in den USA ist
@elonmusk die Frage zu stellen, ob er es mit seinem Portal tatsächlich angesichts dieser Feststellungen mit der Meinungsfreiheit ernst meinte oder ob er nicht sein Gewissen auf dem Altar des Geldes längst geopfert hat.
Wer ohnehin medizinisch und sozial um Anerkennung kämpft, wird im digitalen Raum zusätzlich durch Regelwerke getroffen, die die Plattformen – teils aus eigenem Geschäftsinteresse, teils unter staatlichem Druck – implementieren. Deutschland kennt mit dem Netzwerkdurchsetzungsgesetz (NetzDG) ein Sanktionsregime, das schnelle Löschungen fordert; die Studie skizziert, dass solche Regulierungen Moderation aggressiver machen und damit das Risiko selektiver Unterdrückung legitimer politischer Rede erhöhen (zu der auch alle Impfthemen gehören).
Aus anwaltlicher Perspektive berührt das zentrale Kommunikationsgrundrechte: Art. 5 GG schützt auch unbequeme Meinungen; Art. 3 GG verlangt chancengleiche Teilhabe am Diskurs. Wo private Intermediäre – faktisch Gatekeeper der Öffentlichkeit – aufgrund intransparenter Kriterien eine Seite systematisch herabstufen, droht eine selektive Öffentlichkeit: keine klassische Vorzensur, aber eine technisch vermittelte De‑Ranking‑Zensur durch Reichweitenentzug. Die Studie liefert hierfür belastbare Anhaltspunkte, ohne den komplexen Kausalpfad zu simplifizieren.
Gerade deshalb ist der Ton der Betroffenen nicht nur verständlich, sondern notwendig: „Wir sind keine Bots.“ In der Datenlage der TU München steckt ein nüchterner, für die Praxis aber folgenreicher Dreisatz.
Erstens: Koordinierte Kampagnen existieren – auf allen Seiten.
Zweitens: Sie treiben den allgemeinen Diskurs nicht automatisch; die Angst vor der „allmächtigen Trollfabrik“ ist empirisch überzeichnet.
Drittens: Algorithmen und Plattformpolitik strukturieren, was sichtbar wird – und damit, was politisch relevant bleibt.
Für die Redaktion einer Zeitung oder die Pressestelle einer Behörde ist das eine Einladung zur Selbstprüfung.
Für die Politik ist es ein Arbeitsauftrag: Algorithmentransparenz, überprüfbare Audit‑Verfahren, diskriminierungsfreie Ranking‑Standards und ein Zugang für unabhängige Forschung zu Plattformdaten, damit Befunde wie die Sichtbarkeitsdifferenz von „2 vs. 0,5 Retweets je 100 Follower“ nicht im Dunkel bleiben, sondern überprüfbar sind.
Die Münchner Studie zeigt, wie sehr die Architektur der Plattform den Ausgang einer Debatte vorprägt. Wer die Stimmen der Betroffenen ernst nimmt, wird daraus keine Kulturkampfparole, sondern eine rechtsstaatliche Priorität ableiten: gleiche Sichtbarkeit für gleiche Sachlichkeit, nachvollziehbar geregelt, unabhängig kontrolliert. Erst dann wird aus dem Aufschrei der Unsichtbaren wieder das, was eine demokratische Öffentlichkeit verspricht: hörbare Rede.
Ich werfe nach dieser nüchternen Diagnose
@elonmusk vor, sich der Diktatur im Meinungskampf in Europa komplett mit den implementierten Algorhytmen unterworfen zu haben. Es wird Zeit ihn öffentlich in den USA angesichts dieser Feststellungen dafür zu Rede zu stellen, ob dies mit dem HOCH auf die Meinungsfreiheit in den USA vereinbar ist, wenn Stimmen danach vom Algorithmus ein upgrade oder downgrade erhalten, je nachdem, ob des der Regierungslinie entspricht oder nicht.