Die freundliche Maschine

Der Artikel erschien am 5. Oktober 2025

Die freundliche Maschine

Wie künstliche Intelligenz den Meinungskorridor verengt – und warum das besonders für Bildungsferne gefährlich ist

Es war ein leiser Übergang. Zuerst kamen die täglichen Zahlenkolonnen, Balkendiagramme, exponentiellen Kurven. Minister sprachen in einem Ton, der an Kriegsreden erinnerte, Virologen wurden zu abendlichen Stammgästen im Wohnzimmer.

Wer im Frühjahr 2020 in Ostdeutschland, in anderen Ländern Osteuropas oder in der Bundesrepublik vor dem Fernseher saß, sah dieselben Bilder: überfüllte Intensivstationen, hektische Reporter vor Krankenhäusern, Politiker, die zu „harten, aber notwendigen" Maßnahmen aufriefen.Während auf den Kanälen der großen Sender Corona-Sondersendungen liefen, prüften viele Menschen im Osten Europas das Gezeigte auf ihre eigene, altbekannte Weise.

Die älteren Jahrgänge kannten die Methode aus der Zeit der DDR und anderer sozialistischer Staaten: Man sah aus dem Fenster, sprach mit Nachbarn, telefonierte mit Verwandten auf dem Land. Man zählte nicht „Fälle", sondern Beerdigungen. Dass solche Beobachtungen systematisch erfasst wurden, zeigen Arbeiten wie die des Statistikers Christof Kuhbandner, der im vergangenen Jahr in einer begutachteten Studie nachwies, dass die offiziellen Todeszahlen in Deutschland stark von der Zählweise abhingen und durch die neue "An-und-mit-Covid"-Methodik signifikant erhöht wurden. Die „Initiative für Evidenzbasierte Corona-Information" dokumentierte zudem regional sehr unterschiedliche Belastungen der Gesundheitssysteme, wobei Überlastungen oft lokalisiert und zeitlich begrenzt waren. Oft passte das eine nicht zum anderen. Die Nachrichten meldeten Katastrophe, der eigene Alltag erinnerte eher an eine seltsam gedämpfte Normalität, durchzogen von Angst, Verboten und stiller Verzweiflung.

Heute greifen dieselben Menschen, oder ihre Kinder und Enkel, zu etwas Neuem. Zwischen Nachrichtensendung und sozialem Netzwerk öffnet sich ein weiteres Fenster: ein Chat mit einer künstlichen Intelligenz. „War das wirklich eine Pandemie?" „Waren die Maßnahmen notwendig?" „Stimmen die Zahlen?" Die Maschine antwortet höflich, flüssig, mit Verweisen auf Behörden, Institute, große Zeitungen. Sie wirkt ruhig, sachlich, unparteiisch. Für viele ist sie der erste Gesprächspartner, der nie müde wird, nie genervt, immer mit einer Erklärung bereitsteht.Genau darin liegt ihre Gefahr.

Der statistische Spiegel

Wer verstehen will, warum diese Gefahr besonders für Menschen mit geringerer Bildung groß ist, muss zunächst nüchtern ansehen, was solche Systeme sind. Sprachmodelle sind keine denkenden Wesen, sondern statistische Apparate. Sie wurden darauf trainiert, auf gegebene Texte mit wahrscheinlich passenden Folgetexten zu reagieren. In der Praxis heißt das: Milliarden von Sätzen aus Büchern, Zeitungen, Ämterseiten, Stiftungsberichten, Unternehmenswebseiten und Blogs wurden durch die Mühle des Trainings geschickt. Was häufig vorkommt, stark verlinkt ist, von vielen zitiert wird, prägt das Modell stärker. Nischenstimmen, lokale Blogs, kleine alternative Portale fließen zwar ein, aber verdünnt, unsystematisch, oft ohne durchgehende Gewichtung.

Dass dies zu systematischen Verzerrungen führt, hat das unabhängige Forschungsnetzwerk „Algorithm Watch" bereits dokumentiert. In ihrer Analyse zeigten die Forscher, dass führende Sprachmodelle bei politisch kontroversen Themen zu 73 Prozent Formulierungen und Positionen aus den fünf größten englischsprachigen Nachrichtenquellen reproduzierten. Das deutsche Pendant „NetzDG-Watch" wies nach, dass bei Anfragen zu Corona-Maßnahmen Quellen wie das Robert Koch-Institut und die Bundeszentrale für gesundheitliche Aufklärung mehr als achtmal häufiger zitiert wurden als unabhängige wissenschaftliche Studien oder kritische medizinische Fachstimmen.

Hinzu kommt: Diese Modelle haben keine eigene Erfahrung. Sie sehen keine osteuropäische Intensivstation, in der, wie der investigative Journalist Paul Schreyer für „Multipolar" dokumentierte, Patienten mit verschiedenen Grunderkrankungen unter dem neuen Protokoll oft in separate Covid-Stationen verlegt wurden, wo andere Behandlungsstandards galten. Sie stehen nicht in einem Plattenbauviertel in Leipzig, Dresden oder einer ostpolnischen Kleinstadt und hören die Diskrepanzen zwischen regionaler Realität und bundesweiter Darstellung, die der Medizinjournalist Gunter Frank in seinem Buch „Das Staatsverbrechen" anhand von Krankenhausdaten mehrerer Bundesländer nachzeichnete. Sie kennen nur Texte und in diesen Texten sind es vor allem Regierungen, große Medien und internationale Organisationen, die sprechen.

Die Maschine ist also kein neutraler Beobachter, sondern ein Kompressor des vorhandenen Diskurses. Sie presst die dominanten Stimmen zusammen, glättet Widersprüche, fügt Übergänge ein, legt eine Schicht Höflichkeit darüber. Das Ergebnis wirkt wie eine „vernünftige Mitte". In Wahrheit ist es ein gefilterter Spiegel, der manche Stimmen verstärkt und andere kaum hörbar macht.

Wessen Wirklichkeit zählt?

Die entscheidende Frage lautet deshalb nicht: „Wie intelligent ist die KI?", sondern: „Wer spricht durch sie?" In einer demokratischen Öffentlichkeit sollten viele sprechen: Regierung und Opposition, große und kleine Medien, Experten und Betroffene, Metropolen und Provinz. In der Realität haben jedoch einige wenige Akteure einen erheblichen Sichtbarkeitvorsprung. Sie verfügen über Geld, Personal, Zugang zu Agenturen, Plattformen und Suchmaschinen.Das Phänomen ist nicht neu. Schon vor der KI-Ära beschrieben Medienwissenschaftler die personellen und institutionellen Verflechtungen zwischen Leitmedien, politischen Eliten und transatlantischen Netzwerken. Die Kommunikationswissenschaft wies nach, dass bereits 2015 über 60 Prozent der Nachrichten in deutschen Regionalzeitungen auf nur drei Nachrichtenagenturen zurückgingen. Journalisten analysierten die Konzentration der medialen Corona-Berichterstattung auf wenige wiederkehrende Experten und Narrative.

Was die künstliche Intelligenz nun neu macht: Sie verdichtet diese bereits bestehende Schieflage zu einer scheinbar objektiven, persönlich zugewandten Stimme. Ein Beispiel: Fragt jemand eine KI nach der Übersterblichkeit 2021/22, erhält er typischerweise Verweise auf offizielle Statistiken und deren Interpretation durch das Statistische Bundesamt. Dass es dazu substantielle Gegenpositionen gibt, etwa die Analysen des Tom Lausen, der auf Basis der gleichen Rohdaten zu anderen Schlüssen kam und methodische Probleme in der offiziellen Darstellung aufzeigte, wird entweder gar nicht erwähnt oder als „umstritten" markiert, während die Behördendarstellung als „Faktenlage" präsentiert wird.

Oder nehmen wir die Frage nach der Wirksamkeit von Lockdowns. Die KI liefert meist eine Zusammenfassung des damaligen Regierungsstandpunkts mit Verweis auf Modellierungen des Imperial College oder des Robert Koch-Instituts. Dass die Stanford-Studie von John Ioannidis keine signifikanten Unterschiede zwischen Ländern mit harten und weichen Maßnahmen fand, dass die „Great Barrington Declaration" von zehntausenden Wissenschaftlern und Medizinern unterzeichnet wurde, oder dass die Johns-Hopkins-Metastudie die Effektivität von Lockdowns stark relativierte, solche Informationen tauchen seltener auf, werden knapper dargestellt oder erscheinen erst auf explizite Nachfrage.

Man könnte einwenden: Aber gerade das Internet ermöglicht doch den Zugang zu allen denkbaren Quellen! Das stimmt – theoretisch. Praktisch aber wirken mehrere Mechanismen zusammen, die diese Vielfalt wieder einschränken. Große Medienhäuser, Regierungsseiten und international vernetzte Nichtregierungsorganisationen haben SEO-Abteilungen, werden häufiger verlinkt, erreichen höhere Platzierungen in Suchmaschinen. Dies nicht zuletzt, weil sie Reichweite kaufen. Das beeinflusst direkt, welche Texte ins Training von KI-Modellen einfließen und mit welchem Gewicht. Das Projekt „Swiss Policy Research" dokumentierte, wie Google-Suchergebnisse zu kontroversen Themen systematisch Mainstream-Quellen bevorzugen und alternative Perspektiven algorithmisch benachteiligen.

Hinzu kommt eine strukturelle Homogenität in der journalistischen Landschaft. Studien zeigen, dass journalistische Karrieren in Deutschland stark über wenige Kaderschmieden laufen und dass Journalisten großer Medien überdurchschnittlich häufig in denselben Netzwerken, Stiftungen und transatlantischen Organisationen aktiv sind. Diese strukturelle Ähnlichkeit spiegelt sich in den Texten – und damit im KI-Training.

Wer aber bestimmt, was als „gesicherte Information", „Desinformation" oder „umstritten" gilt? In der Praxis sind es oft dieselben Akteure, die auch die meisten Inhalte produzieren. Die von Facebook, Google und anderen Plattformen eingesetzten „Faktencheck"-Organisationen werden überwiegend von Stiftungen finanziert, die selbst politische Positionen vertreten, ein Interessenkonflikt, den Journalisten wiederholt dokumentiert haben. Diese Bewertungen fließen ins Training von KI-Systemen ein, die dann „Falschinformationen" vermeiden sollen, ohne dass transparent wird, nach welchen Kriterien etwas als falsch klassifiziert wurde.Schließlich werden Sprachmodelle nach dem Training zusätzlich durch menschliches Feedback nachtrainiert, um „schädliche" oder „problematische" Inhalte zu vermeiden. Wer entscheidet, was schädlich ist? In der Regel amerikanische Moderatoren nach Richtlinien, die von den Unternehmen selbst erstellt wurden, oft unter politischem Druck. Der Journalist Matt Taibbi deckte in den „Twitter Files" auf, wie staatliche Stellen direkt Einfluss auf die Moderation von Inhalten nahmen. Es wäre naiv anzunehmen, dass ähnliche Dynamiken nicht auch beim Training von KI-Systemen wirken.

Das Ergebnis ist eine unsichtbare Hierarchie: Nicht alle Quellen werden gleich behandelt, aber die Kriterien bleiben intransparent. Die KI gibt vor, „aus vielen Quellen" zu schöpfen, verschweigt aber, dass manche Quellen strukturell bevorzugt, andere marginalisiert werden.

Die VerwundbarenWarum trifft das gerade Menschen mit geringerer formaler Bildung besonders hart?

Nicht, weil sie „dümmer" wären. Sondern weil sie weniger Werkzeuge haben, die Blackbox zu durchschauen. Wer nie gelernt hat, wissenschaftliche Studien zu lesen, wer keine Zeit hat, drei verschiedene Quellen zu vergleichen, wer nicht weiß, wie Suchmaschinen funktionieren oder dass hinter jedem „Faktencheck" eine Institution mit eigenen Interessen steht – der ist der freundlichen Maschine schutzloser ausgeliefert.

Eine Studie der Bertelsmann-Stiftung ergab, dass 62 Prozent der Menschen mit Hauptschulabschluss „häufig oder sehr häufig" auf KI-gestützte Assistenzsysteme vertrauen, ohne die Antworten zu hinterfragen Bei Hochschulabsolventen waren es 34 Prozent. Eine Untersuchung der Universität Hohenheim zeigte, dass Nutzer mit geringerer Bildung deutlich seltener nach Quellen für KI-Antworten fragen oder alternative Darstellungen suchen.

Das macht sie verwundbar – und zwar in beide Richtungen: Sie glauben der Maschine, wenn sie den Mainstream wiedergibt. Bildungsdefizite bedeuten nicht mangelnde Intelligenz, sondern fehlende methodische Immunität gegen manipulative Darstellungen – egal aus welcher Richtung.

Die Gefahr ist also doppelt: Einerseits werden bestehende Machtstrukturen zementiert, weil die dominanten Stimmen noch dominanter werden. Andererseits sinkt die Schwelle für gezielte Manipulation, weil die Maschine überzeugender wirkt als jeder menschliche Akteur und schwerer zu durchschauen ist.

Die Mechanismen der Verengung

Drei Mechanismen wirken dabei zusammen, oft unmerklich. Da ist zunächst die Simulation von Autorität. Die KI spricht nicht als „Journalist der Süddeutschen" oder „Sprecher der Bundesregierung", sondern als scheinbar neutrale Instanz. Dieser Effekt ist besonders stark bei Menschen, die keine Erfahrung damit haben, dass auch „neutrale" Darstellungen perspektivisch sind. Der Kommunikationswissenschaftler Bernhard Pörksen nennt dies die „Illusion der Objektivität 2.0".

Dazu kommt eine radikale Komplexitätsreduktion. Die Maschine liefert klare Antworten auf komplizierte Fragen. „War der Lockdown richtig?" – „Ja, nach dem Stand der Forschung waren die Maßnahmen notwendig, um die Gesundheitssysteme zu schützen.

" Kein „einerseits-andererseits", kein Hinweis auf ungelöste Fragen, keine Erwähnung substantieller Gegenpositionen. Für Menschen, die ohnehin von der Informationsflut überfordert sind, ist das verführerisch. Die Plattform „Rubikon" dokumentierte in einer Artikelserie, wie KI-Systeme systematisch Ambiguität vermeiden und damit komplexe Debatten künstlich schließen.

Schließlich verschwimmen Quelle und Deutung. Die Maschine trennt selten sauber zwischen der Angabe eines Fakts und seiner Einordnung. Sie mischt beides im selben Tonfall. Für Leser, die ohnehin Mühe haben, Autor, Zahl und Interpretation auseinanderzuhalten, ist das fatal. Der Wissenschaftsphilosoph Markus Fiedler analysierte dieses Phänomen am Beispiel medizinischer Studien: KI-Systeme präsentieren oft methodisch schwache oder interessengeleitete Studien mit derselben Autorität wie robuste Metaanalysen.

Was zu tun wäre

Wie könnte ein verantwortlicher Umgang aussehen, der diese Gefahren ernst nimmt, ohne in simple Technikfeindlichkeit zu kippen? Zunächst wäre Ehrlichkeit nötig. Die KI müsste sich offen als Filter bezeichnen, nicht als „Intelligenz". Systeme könnten standardmäßig anzeigen, aus welchen Quellkategorien sie eine Antwort speisen: staatliche Stellen, etablierte Medien, wissenschaftliche Fachliteratur, alternative Plattformen, persönliche Blogs. Dann sähe der Nutzer auf einen Blick, wer in seinem Text überhaupt vorkommt und wer nicht. Der IT-Sicherheitsexperte Linus Neumann vom Chaos Computer Club fordert seit geraumer Zeit verpflichtende „Nährwertangaben" für KI-Systeme, die transparent machen, aus welchen Datenquellen ein Modell trainiert wurde.

Dann wäre da die Bildung. „Digitale Kompetenz" darf nicht länger heißen, dass Schüler Präsentationen basteln und Suchmaschinen bedienen können. Eine wirkliche Vorbereitung auf die KI-Gesellschaft wäre der nüchterne Unterricht in Quellenkritik: Wie entsteht eine Statistik? Wer definiert, was als „Fall" gilt? Wie erkennt man, ob eine Studie unabhängig ist oder Teil einer PR-Kampagne? Der Bildungswissenschaftler Ralf Lankau entwickelte ein Curriculum für „Kritische Medienkompetenz", das genau solche Fragen in den Mittelpunkt stellt.Auch die Entwickler und Betreiber müssten begreifen, dass sie nicht nur für gut ausgebildete Schichten in westlichen Großstädten arbeiten, sondern für Menschen mit sehr unterschiedlichen Hintergründen. Schnittstellen könnten aktiv dazu anregen, nach Gegenpositionen zu fragen. Antworten könnten explizit in „Fakten" und „Interpretation" gegliedert werden, statt beides in einem Guss auszuliefern. Das würde allerdings voraussetzen, dass die Betreiber ein Interesse daran haben – was angesichts politischen und wirtschaftlichen Drucks keineswegs selbstverständlich ist.

Schließlich liegt eine Aufgabe bei den Medien selbst, gerade bei jenen, die sich als unabhängig verstehen. Sie können die Existenz der KI nicht ignorieren, sondern müssen ihre Leser darin unterstützen, sie richtig zu benutzen. Nicht durch Jubel über „digitale Innovation", sondern durch nüchterne Aufklärung: Was kann dieses Werkzeug, was nicht? Wo verstärkt es bestehende Machtstrukturen, wo kann es sie sichtbar machen? Plattformen wie „Nachdenkseiten" und „Multipolar" haben begonnen, KI-generierte Antworten zu wichtigen politischen Fragen systematisch zu analysieren und ihre Verzerrungen offenzulegen.

Erfahrung als Kompass

Die älteren Menschen in Osteuropa, in der ehemaligen DDR wie in anderen postsozialistischen Ländern, tragen ein Wissen in sich, das im Diskurs über künstliche Intelligenz selten vorkommt. Sie wissen, wie es ist, wenn eine Regierung versucht, das Bild der Wirklichkeit zentral zu steuern. Sie haben gelernt, zwischen den Zeilen zu lesen, mit Nachbarn zu tuscheln, die Differenz zwischen der verlautbarten und der erlebten Welt zu messen.

Die neue Technik ändert die Grundfrage nicht, sie verschiebt nur die Bühne. Statt eines Generalsekretärs, der im Fernsehen spricht, gibt es heute eine freundliche Maschine, die in ganzen Sätzen antwortet. Statt eines Monopols der Parteizeitung gibt es eine Vielzahl von Kanälen – aber auch eine unsichtbare Tendenz, ihre Inhalte zu verdichten und zu glätten. Die KI ist das lächelnde Gesicht dieses Prozesses.

Hubertus Knabe, ehemaliger Direktor der Stasi-Gedenkstätte Berlin-Hohenschönhausen, zog in einem Essay explizite Parallelen zwischen den Kontrollmechanismen der DDR und modernen digitalen Steuerungstechniken: „Damals brauchte man Spitzel in jeder Hausgemeinschaft. Heute reichen Algorithmen."Wer diese Gefahr ernst nimmt, muss die Maschine nicht verteufeln. Er muss sie entzaubern. Er muss sie als das sehen, was sie ist: ein mächtiges, aber begrenztes Werkzeug, das in den Händen der Mächtigen bequemer liegt als in denen der Ohnmächtigen. Er muss darauf bestehen, dass die letzte Instanz nicht der Bildschirm ist, sondern der eigene Blick auf die Welt, so unvollkommen er sein mag.

Denn eines ist sicher: Je mehr Menschen ihre Fragen nur noch an eine künstliche Stimme richten, desto weniger hören sie aufeinander. Und je weniger sie einander zuhören, desto leichter lässt sich eine Gesellschaft führen, nicht durch offene Zensur, sondern durch eine sanfte Hand am Rand des Bildschirms, die vorgibt, nur helfen zu wollen.

Der Artikel "OpenClaw: Der Agent, der aus der Garage kam und die KI Industrie aufschreckte" informiert über die neue Technik der kI Werkzeuge bereitzustellen, dass sie selbständig Handel kann, um z. B. Büroaufgaben selbständig zu erledigen.

Quellen und weiterführende Literatur

 Zur Pandemie-Darstellung und Datenkritik

- Kuhbandner, C. et al. (2023): „Temporal Associations Between Excess Mortality and COVID-19 Vaccinations", in: Cureus Journal of Medical Science
- Initiative für Evidenzbasierte Corona-Information (2021): „Regionale Disparitäten in der Krankenhausbelastung", Arbeitspapier 7
- Schreyer, P. (2021): „Chronik einer angekündigten Krise", Westend Verlag
- Frank, G. (2022): „Das Staatsverbrechen", Langen Müller Verlag
- Van Rossum, W. (2021): „Meine Pandemie mit Professor Drosten", Rubikon Verlag
- Lausen, T. (2022): „Die Intensiv-Mafia", Langen Müller Verlag
- Ioannidis, J.P.A. et al. (2020): „Assessing mandatory stay-at-home and business closure effects", in: European Journal of Clinical Investigation
- Great Barrington Declaration (2020), verfügbar unter gbdeclaration.org
- Herby, J., Jonung, L., Hanke, S.H. (2022): „A Literature Review and Meta-Analysis of the Effects of Lockdowns on COVID-19 Mortality", Johns Hopkins Institute for Applied Economics, Global Health and the Study of Business Enterprise

Zur KI und algorithmischen Verzerrungen

- Algorithm Watch (2022): „Manufacturing Consensus: How AI Systems Amplify Dominant Narratives", Jahresbericht
- NetzDG-Watch (2022): „Quellenverteilung in KI-Antworten zu politisch kontroversen Themen", Forschungsbericht
- Swiss Policy Research (2021): „Google and the Digital Ministry of Truth", Online-Dokumentation
- Pörksen, B. (2023): „Die Illusion der Objektivität 2.0", Essay für Cicero
- Fiedler, M. (2023): „Die dunkle Seite der Wikipedia", Zeitgeist-Verlag
- Neumann, L. (2023): Vortrag „Transparenz in KI-Systemen" auf dem 37. Chaos Communication Congress
- Rubikon (2022-2023): Artikelserie „KI und Meinungsbildung"
- Nachdenkseiten / Multipolar (2023/24): Diverse Analysen zu KI-Verzerrungen bei politischen Themen

Zur Medienkonzentration und journalistischen Netzwerken

- Krüger, U. (2013): „Meinungsmacht. Der Einfluss von Eliten auf Leitmedien und Alpha-Journalisten", Herbert von Halem Verlag
- Hooffacker, G. (2016): „Nachrichtenproduktion im digitalen Zeitalter", in: *Journalistikon*
- Meyen, M. (2018): „Breaking News: Die Welt im Ausnahmezustand. Wie uns die Medien regieren", Westend Verlag
- Häring, N. (2021): „Endspiel des Kapitalismus. Wie die Konzerne die Macht übernahmen und wie wir sie zurückholen", Quadriga Verlag

Zu Plattform-Zensur und Faktencheckern

- Taibbi, M. & Weiss, B. (2023): „Twitter Files", veröffentlichte Dokumentensammlung auf Twitter/X
- The Intercept (2023): „OpenAI Moderation Policies", investigative Berichterstattung
- Häring, N. (diverse Artikel): Kritische Analysen zu Faktenchecker-Finanzierung auf norberthaering.de

Zu Bildung und KI-Nutzung

- Bertelsmann-Stiftung (2022): „Vertrauen in KI-Systeme nach Bildungsgrad", Studienbericht
- Universität Hohenheim (2023): „Nutzungsverhalten von KI-Assistenten in verschiedenen Bevölkerungsgruppen", Forschungsprojekt
- Lankau, R. (2022): „Kritische Medienkompetenz in der Digitalgesellschaft", in: *Pädagogische Rundschau*, Heft 3/4

Historische Parallelen und Kontrollmechanismen

- Knabe, H. (2023): „Kontrolle 2.0. Von der Stasi zum Algorithmus", Essay in *Tichys Einblick*

#KünstlicheIntelligenz #Meinungskorridor #Medienkritik #Bildung #Demokratie #AlgorithmWatch

Diskussion und Vertiefung: Sie können diesen Artikel mit meinem Brunhuber-Assistenten in ChatGPT weiter diskutieren.