Artikel veröffentlicht am 06.10.2025
Die freundliche Maschine (kurze Version)
Wie künstliche Intelligenz den Meinungskorridor verengt – und warum das besonders für Bildungsferne gefährlich ist
Eine Nachlese von Ulrich Brunhuber
Ein leiser Übergang
Es begann unscheinbar. Zuerst kamen die täglichen Zahlenkolonnen, Balkendiagramme, Kurven. Minister sprachen in einem ungewohnt ernsten Ton, Virologen wurden zu abendlichen Stammgästen im Wohnzimmer. Wer im Frühjahr 2020 in Ostdeutschland, Osteuropa oder der Bundesrepublik den Fernseher einschaltete, sah dieselben Bilder: überfüllte Intensivstationen, Reporter vor Krankenhäusern, Politiker, die „harte, aber notwendige“ Maßnahmen ankündigten. Doch während die großen Sender im Ausnahmezustand sendeten, überprüften viele Menschen das Gezeigte auf ihre eigene, historisch gewachsene Weise: Man sah aus dem Fenster, sprach mit Nachbarn, telefonierte mit Verwandten. Man zählte nicht Fälle – man zählte Beerdigungen.
Studien wie jene des Statistikers Christof Kuhbandner zeigten später, dass die offiziellen Todeszahlen in Deutschland stark von der Zählweise abhingen und durch die „An-und-mit-Covid“-Methodik erhöht wurden [1]. Die „Initiative für Evidenzbasierte Corona-Information“ dokumentierte zudem regionale Unterschiede in der Krankenhausbelastung [2].
Ein neues Fenster
Heute greifen dieselben Menschen und ihre Kinder oder Enkel zu etwas Neuem: Zwischen Nachrichtensendung und sozialem Netzwerk öffnet sich ein weiteres Fenster – ein Chat mit einer künstlichen Intelligenz. „War das wirklich eine Pandemie?“ „Waren die Maßnahmen notwendig?“ „Stimmten die Zahlen?“
Die Maschine antwortet höflich, ausführlich, mit Verweisen auf Behörden, Institute, große Zeitungen. Sie wirkt ruhig, sachlich, unparteiisch. Für viele ist sie ein Gesprächspartner, der nie müde wird. Genau darin liegt ihre Gefahr.
Der statistische Spiegel
Sprachmodelle sind keine denkenden Wesen, sondern statistische Apparate. Milliarden Sätze aus Büchern, Zeitungen, Ämterseiten und großen Nachrichtenportalen prägen ihre Antworten. Was dominant ist, wird verstärkt. Was nischig ist, geht unter.
Organisationen wie Algorithm Watch zeigten, dass KI-Systeme bei politisch sensiblen Themen dominante Narrative überproportional reproduzieren [3]. Die „Twitter Files“ dokumentierten Eingriffe institutioneller Akteure in Plattforminhalte [10]. „The Intercept“ untersuchte Moderationsrichtlinien großer KI-Unternehmen, die bestimmte Themenfelder algorithmisch einschränken [11].
Es ist ein neuer Typ von Lenkung: kein Verbot, keine offene Zensur, sondern ein kaum sichtbares „Soft-Shaping“ öffentlicher Meinung.
Was bleiben muss
Die letzte Instanz darf nicht der Bildschirm sein. Menschen müssen weiterhin auf ihre eigene Wahrnehmung zurückgreifen – auf Nachbarn, Erlebnisse, reale Beobachtungen.
Je mehr Fragen an künstliche Stimmen delegiert werden, desto weniger hören Menschen einander zu. Damit wird gesellschaftliche Steuerung einfacher – durch Narrative, durch technische Voreinstellungen, durch das, was eine Maschine als „wahrscheinlich“ ansieht. Die längere Version des Artikels finden sie unter https://brunhuber.com/demokratie-und-wahlen/20-die-freundliche-maschine
Quellen
Pandemie & Statistik
- Christof Kuhbandner – Meta-Analysis of the Effects of Lockdowns on COVID-19 Mortality, Johns Hopkins Institute
- Initiative für Evidenzbasierte Corona-Information – Dokumentation regionaler Belastungen
KI & algorithmische Verzerrungen
- Algorithm Watch (2022): Manufacturing Consensus
- NetzDG-Watch (2022): Quellenverteilung in KI-Antworten
- Swiss Policy Research (2021): Google and the Digital Ministry of Truth
- Pörksen, B. (2023): Die Illusion der Objektivität 2.0
- Fiedler, M. (2023): Die dunkle Seite der Wikipedia
- Neumann, L. (2023): Vortrag 37C3
- Rubikon (2022–2023): KI und Meinungsbildung
Zensur, Plattformpolitik, Faktenchecks
- Taibbi & Weiss (2023): Twitter Files
- The Intercept (2023): OpenAI Moderation Policies
- Häring, N.: Analysen zu Faktenchecker-Finanzierung
Bildung & KI-Nutzung
- Bertelsmann-Stiftung (2022): Vertrauen in KI-Systeme
- Universität Hohenheim (2023): Nutzungsverhalten KI-Assistenten
- Lankau, R. (2022): Kritische Medienkompetenz
Historische Parallelen
Hashtags:
#KünstlicheIntelligenz #Meinungskorridor #Medienkritik #AlgorithmWatch #DigitaleKompetenz #Demokratie #Bildung #PlattformZensur #Medienkompetenz