Die Manipulation der Massen durch kI

Der Artikel erschien am 29.11.2025

Die Manipulation der Massen: Wie künstliche Intelligenz die Werbeindustrie erobert und die Gesellschaft gefährdet

Eine Analyse von Ulrich Brunhuber

Die Maschinen beobachten. Sie erfassen Klicks, Verweildauer, Suchbegriffe und Kaufentscheidungen in einem Umfang, der vor wenigen Jahren noch als Projektionsfläche für Zukunftsszenarien diente. Heute sind diese Systeme Teil der industriellen Praxis: Künstliche Intelligenz durchdringt die Werbewirtschaft mit einer Geschwindigkeit und Präzision, die eine nachdenkliche, kritische Antwort verlangt. Entstanden ist ein System von Algorithmen, das nicht nur Produkte verkauft, sondern Strategien zur Beeinflussung von Verhalten entwickelt. Es zerlegt Nutzer in Profile und Merkmalsbündel, um Botschaften zielgenau auszuspielen. Die Werbeindustrie steht vor einer grundlegenden Umgestaltung; wer diesen Wandel nicht analysiert, übersieht die sozialen und politischen Risiken. [1][3]

Die klassische Werbung wirkte in vielerlei Hinsicht grob und ineffizient. Ein Anzeigenblatt oder ein Fernsehspot erreichte Millionen, von denen nur ein Bruchteil kaufte. Diese Massenstreuung hatte einen Nebenefekt: Sie begrenzte gezielte Manipulation. Die jetzt entstehenden Technologien verändern diese Schutzwirkung. Künstliche Intelligenz beendet nicht die Werbung, sie verfeinert sie bis zur Individualisierung im großen Stil. [1][2]

Heute setzen große Plattformen auf programmatische Verfahren zur Schaltung von Werbung: Algorithmen bieten binnen Millisekunden auf Werbeplätze, werten Millionen Datenpunkte aus und wählen die Nachricht, die statistisch die größte Wirkung verspricht. Circa 89 Prozent der digitalen Displaywerbung werden inzwischen so gesteuert. Was als Effizienzgewinn präsentiert wird, führt zu einer qualitativen Veränderung: Nicht mehr Massen werden adressiert, sondern Individuen. Unternehmen berichten von Verbesserungen beim Return on Advertising Spend (ROAS) von fünfundzwanzig bis dreißig Prozent, in Einzelfällen wurden deutlich höhere Klickquoten gemeldet. ROAS bedeutet, wie viele der mit Werbung erreichte, reagiert positiv. [1][3]

Die Kunst der perfekten Verlockung

Das Schlagwort Personalisierung beschreibt eine technische Fähigkeit und einen werblichen Nutzen zugleich. Empfehlungsalgorithmen wie bei Amazon oder Netflix sind Beispiele dafür, wie Vorhersage bei Konsumentscheidungen wirkt. Für viele Nutzer ist das praktisch. Zugleich eröffnet dieselbe Methodik Einsatzfelder jenseits bloßer Produktempfehlung. Inhalte, die heute Filme und Produkte bedienen, können morgen politische oder soziale Präferenzen beeinflussen. [4]

Algorithmen analysieren Text, Bild und Verhalten und identifizieren Muster, die Menschen selbst nicht ohne weiteres sehen. Sie wissen von Impulsivität und von emotionalen Triggern. Forschung zeigt, dass Angst- und Dringlichkeitsbotschaften oft wirksamer sind als Appelle an rationale Vorteile. Clustering Verfahren gruppieren Personen nicht nur nach demografischen Merkmalen, sondern nach psychologischen Profilen und Verwundbarkeiten. [2]

Die wirksamste Werbung hat historisch bestehende Bedürfnisse angesprochen. Ihre Reichweitenbegrenzung war zugleich eine demokratische Beschränkung. KI-getriebene Werbung kann diese Beschränkung aufheben. Ein Algorithmus kann Person A mit Statussymbolik ansprechen, Person B mit Familienbildern und Person C mit Einsamkeitsnarrativen. Jede Variante zielt auf unterschiedliche affektive Hebel. [2][5]

Empirische Studien belegen die Effektstärke dieser Ansätze: Personalisierte politische Anzeigen erreichen deutlich höhere Konversionsraten als generische Botschaften. Generative Modelle erstellen in sehr kurzer Zeit hunderte Variationen einer Werbebotschaft, optimiert auf verschiedene psychologische Profile. Systeme wie ChatGPT erleichtern die Produktion massenhaft personalisierter Texte und Inhalte, ohne dass dafür proportionale menschliche Ressourcen nötig wären. [1][4]

Die entscheidende Frage ist nicht allein die technische Machbarkeit, sondern die ökonomische Anwendbarkeit: Sobald der Aufwand für emotionale Überredung gering ist, steigt die Versuchung, sie einzusetzen. Die Grenze zwischen kommerzieller Kommunikation und Manipulation ist damit nicht länger ausschließlich eine moralische Diskussion, sondern eine Frage von Marktdesign und Regulierung.

Das Gesicht der politischen Herausforderung Mikrotargeting in der Politik

Die Diskussion um Cambridge Analytica 2016 machte eine zentrale Möglichkeit sichtbar: Datengetriebene Profilbildung kann für politische Zwecke genutzt werden. Das Unternehmen illustrierte, wie psychologische Modelle mit personalisierten Nachrichten verknüpft werden können. [9][15]

Technisch sind die Methoden nicht verschwunden, sie haben sich weiterentwickelt. Politische Akteure können inzwischen generative KI nutzen, um in kurzer Zeit Millionen personalisierter Videos, Audionachrichten und Texte zu produzieren. Ein Wahlkampfleiter hat heute andere Möglichkeiten als vor zehn Jahren; die Produktion persönlicher Inhalte ist einfacher und kostengünstiger geworden. [7][10]

Konsequenzen sind noch nicht vollständig empirisch durchdrungen. Algorithmen können Zielgruppen nach Persönlichkeitsmerkmalen identifizieren und unterschiedlich ansprechen: Angstorientierte Botschaften für ängstliche Wähler, progressive Appelle für offenere Gruppen, alles mit demselben politischen Ziel. Diese Form der Kommunikation bleibt oft unsichtbar für Außenstehende und die betroffenen Rezipienten. [15][18]

Die politikwissenschaftliche Literatur bezeichnet psychologisches Mikrotargeting als ein signifikantes Risiko für demokratische Prozesse. Forscher weisen darauf hin, dass automatisierte Erfassung psychologischer Merkmale und darauf abgestimmte persuasive Nachrichten das Potenzial eines bisher unbekannten Einflussinstruments darstellen. [15]

Warnhinweise allein zeigten bisher nur begrenzte Wirkung. Studien, die gezielte Transparenzversuche untersuchten, fanden, dass eine direkte Kennzeichnung personalisierter Werbung die Überzeugungskraft nur moderat reduziert. Nutzer ignorieren Hinweise oft, insbesondere wenn die Inhalte kognitiv einbindend oder emotional bestätigt werden. [18]

Hinzu kommt die Technologie der synthetischen Medien. Deepfakes und synthetische Stimmen können politische Kommunikation verfälschen und in kurzer Zeit große Reichweiten erzielen. Solche Instrumente bergen das Risiko, dass Desinformation schneller und glaubwürdiger wirkt als herkömmliche Korrekturmechanismen reagieren können. [7][10]

Politische Akteure experimentieren bereits mit diesen Mitteln, vorerst punktuell. Die ökonomischen Hürden sinken jedoch weiter: Tools sind günstig, verfügbar und benötigen vergleichsweise wenig Expertise, um effektiv eingesetzt zu werden.

Die Fabrik der Arbeitsveränderung

Die ökonomische Rationalisierung durch KI führt zu sozialen Folgen. In der Werbebranche sind erste Entlassungswellen dokumentiert. Im September 2025 verlor die Branche in den USA an einem einzigen Tag mehrere hundert Stellen. Prognosen durch Marktforscher deuten darauf hin, dass in bestimmten Segmenten bis zum Ende des kommenden Jahres signifikante Anteilsverluste der Beschäftigung möglich sind. [17][14]

Große Agenturen haben bereits Personalmaßnahmen angekündigt oder durchgeführt. Dentsu, WPP und andere Konzerne berichteten über Tausende von Stellenkürzungen. Diese Entwicklungen betreffen Berufsgruppen wie Grafiker, Texter, Mediabuyer und Datenanalysten. KI kann in vielen Fällen Routinearbeiten schneller und billiger erledigen als Menschen, was zu strukturellen Arbeitsplatzveränderungen führt. [14]

Ökonomische Modellrechnungen prognostizieren, dass generative KI bestimmte Tätigkeiten substanziell verdrängen könnte. Goldman Sachs sieht bei breiter Anwendung einen zweistelligen Einfluss auf bestimmte Beschäftigungsbereiche. [8]

Ein zentrales sozialpolitisches Problem ist die Frage der Ersatzbeschäftigung und der zeitlichen Kompensation. Technologische Disruptionen haben in der Vergangenheit neue Tätigkeiten geschaffen, doch die Schaffung von Arbeitsplätzen verläuft nicht automatisch parallel zu Arbeitsplatzverlusten. Umschulung, soziale Sicherung und arbeitsmarktpolitische Maßnahmen sind notwendig, um einen gerechten Übergang zu ermöglichen. [8][11]

Besonders verletzlich sind ältere Beschäftigte und solche mit eingeschränkter Anpassungsfähigkeit an digitale Prozesse. Altersstrukturelle Effekte könnten zu einer zusätzlichen sozialen Belastung führen, wenn Personalabbau selektiv ältere Kohorten betrifft. [14]

Die gefälschte Transparenz Regulierung und ihre Grenzen

Regulatorische Reaktionen sind sichtbar: Die Europäische Union hat den AI Act beschlossen, in Kalifornien wurden Transparenzpflichten diskutiert und verabschiedet. Kennzeichnungspflichten für synthetische Inhalte und Vorschläge für Transparenzerklärungen existieren. [21][27][30]

Gleichzeitig zeigt sich ein Dilemma: Die Technologie entwickelt sich schneller als viele regulatorische Mechanismen implementiert werden können. Regeln werden formuliert, während Systeme bereits in neuen Generationen existieren. Die Frage ist, ob Regulierungen nicht häufig hinter den technischen Entwicklungen zurückbleiben. [21]

Ein weiteres Problem ist die Anforderung der Erklärbarkeit. Gesetzliche Vorgaben verlangen oft Transparenz in den Entscheidungsprozessen von KI. Bei tiefen neuronalen Netzwerken mit Millionen von Parametern ist die praktische Umsetzbarkeit dieser Vorgaben jedoch eingeschränkt. Selbst Entwickler haben nicht immer klare, vollständig nachvollziehbare Erklärungen für Einzelentscheidungen. [13][32]

Datenschutzregelungen wie die GDPR sollten Zustimmung und Kontrolle stärken. In der Praxis ist die Einwilligung jedoch häufig formell: Nutzer bestätigen lange Bedingungen, ohne sie zu lesen. Die rechtliche Fiktion einer informierten Zustimmung kollidiert mit der tatsächlichen Nutzungspraxis. [13]

Ethikleitlinien der Industrie existieren, doch sie sind in vielen Fällen freiwillig und nicht bindend. Konzerne können Richtlinien anpassen, Testphasen durchführen und so die Regulierungsspielräume ausdehnen. Ökonomische Anreize, Gewinne durch personalisierte Kommunikation zu erzielen, stehen einer strengen Selbstbeschränkung oft entgegen. [32][35]

Die dunklen Muster Dark Patterns und designbasierte Manipulation

Eine weitere konkrete Gefahr sind sogenannte Dark Patterns: bewusste Designentscheidungen, die Nutzer zu unerwünschten Handlungen leiten. Beispiele sind schwer auffindbare Abmeldeprozesse, irreführende Checkboxen oder komplizierte Cookie-Einstellungen. Diese Muster existieren schon lange, doch KI erlaubt ihre Verfeinerung. [25][28]

KI kann prüfen, welche Interfacevarianten bei welchen Nutzergruppen am effektivsten sind. Sie kann Buttongrößen, Formulierungen und Reihenfolgen variieren und so adaptive, personalisierte Dark Patterns erzeugen. Das Ergebnis ist eine differenzierte Manipulation, die besonders Menschen mit geringer digitaler Kompetenz trifft: Ältere Menschen, Nutzer mit eingeschränkten Fähigkeiten oder kognitiven Beeinträchtigungen sind besonders gefährdet. [25]

Was die Gesellschaft jetzt tun muss

Die Technologie ist vorhanden und wird weiter eingesetzt. Sie ist nicht per se unkontrollierbar, aber ihre Regulierung und gesellschaftliche Einordnung sind dringend. Es bedarf eines breiten Maßnahmenpakets, das technische, rechtliche und soziale Instrumente kombiniert.

  1. Bindende Regulierung statt freiwilliger Selbstverpflichtung: Unternehmen sollten nachweislich darlegen müssen, dass ihre Algorithmen nicht manipulativ eingesetzt werden. Tests und Wirkungsmessungen könnten als Nachweis dienen. [32][35]
  2. Durchsetzbare Transparenz: Nutzer sollten verstehen können, warum eine Anzeige ihnen gezeigt wird, welche Daten dafür verwendet wurden und welche Kategorisierung vorgenommen wurde. Praktische Umsetzbarkeit kann technisch anspruchsvoll sein, ist aber ein legitimes Ziel. [13][32]
  3. Schutz von First Party Daten: Reduzierte Datensammlung, technische Maßnahmen wie lokale Verarbeitung, Anonymisierung und Differenzialschutz können die Grundlage manipulativer Systeme schwächen. [13][36]
  4. Sozialpolitische Absicherung: Abgaben auf automatisierte Prozesse, gezielte Umschulungsprogramme und Instrumente zur Arbeitszeitverteilung können helfen, die sozialen Kosten zu mindern. Länder mit starken sozialen Sicherungsnetzen zeigen Modelle auf, wie Übergänge sozial gestaltbar sind. [8]
  5. Politische Regeln für politische Kommunikation: Psychologisches Mikrotargeting in Wahlsystemen sollte streng reguliert oder verboten werden, weil es das Funktionieren demokratischer Debatten gefährdet. Standardisierte politische Botschaften würden einen gleicheren Informationszugang sichern. [7][10][15][18]
  6. Bildung und Medienkompetenz: Aufklärung über Personalisierung und Manipulation ist nötig. Digitale Bildung muss Nutzer befähigen, Mechanismen zu erkennen und kritisch zu bewerten. [35]

Diese Maßnahmen sind nicht trivial. Sie erfordern politische Entschlossenheit und technischen Sachverstand. Doch sie sind möglich. Die Frage ist, ob Gesellschaften bereit sind, Marktinteressen wirksam zu begrenzen, um demokratische und soziale Werte zu schützen.

Der Horizont der Zukunft

Die technische Entwicklung wird nicht ausgesetzt. Systeme werden leistungsfähiger und günstiger. Einige der heute beunruhigenden Anwendungen werden in fünf Jahren vermutlich Routine sein. Die zentrale Herausforderung besteht daher nicht im Technikverbot, sondern in der politischen und sozialen Gestaltung des Einsatzes.

Die Aufgabe besteht darin, Rahmen zu schaffen, in denen Menschen nicht primär als Objekte des Targetings behandelt werden, sondern als politische Subjekte mit Rechten auf informierte Entscheidung. Fortschritt darf nicht bedeuten, dass Menschen systematisch ersetzt oder ausgebeutet werden. Es gibt noch Handlungsspielräume. Jetzt gilt es, sie zu nutzen.

Quellenblock

[1] Admetrics (2024): "Artificial Intelligence Advertising: How AI is Transforming Digital Advertising". Online verfügbar unter: https://www.admetrics.io/en/post/artificial-intelligence-advertising

[2] VWO (2024): "What Is Personalized Marketing and Why Is Machine Learning an Effective Tool for It?". Online verfügbar unter: https://vwo.com/blog/what-is-personalized-marketing-and-why-is-machine-learning-an-effective-tool-for-it/

[3] Matic Digital (2025): "Artificial Intelligence in advertising: Transforming marketing in 2025". Online verfügbar unter: https://www.maticdigital.com/blog/insights/artificial-intelligence-in-advertising-transforming-marketing-in-2025

[4] Harvard Professional (2024): "AI Will Shape the Future of Marketing". Online verfügbar unter: https://professional.dce.harvard.edu/blog/ai-will-shape-the-future-of-marketing/

[5] McKinsey (2024): "Unlocking the next frontier of personalized marketing". Online verfügbar unter: https://www.mckinsey.com/capabilities/growth-marketing-and-sales/our-insights/unlocking-the-next-frontier-of-personalized-marketing

[6] McKinsey (2025): "McKinsey technology trends outlook 2025". Online verfügbar unter: https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/the-top-trends-in-tech

[7] Brennan Center for Justice (2024): "Generative AI in Political Advertising". Online verfügbar unter: https://www.brennancenter.org/our-work/research-reports/generative-ai-political-advertising

[8] Goldman Sachs (2024): "How Will AI Affect the Global Workforce?". Online verfügbar unter: https://www.goldmansachs.com/insights/articles/how-will-ai-affect-the-global-workforce

[9] RAIS Education (2025): "Ethical Challenges in AI-Powered Behavioral Manipulation in Digital Advertising" (PDF). Online verfügbar unter: https://rais.education/wp-content/uploads/2025/05/0495.pdf

[10] Brookings Institution (2024): "How do artificial intelligence and disinformation impact elections?". Online verfügbar unter: https://www.brookings.edu/articles/how-do-artificial-intelligence-and-disinformation-impact-elections/

[11] Nexford University (2024): "How will Artificial Intelligence Affect Jobs 2026-2030". Online verfügbar unter: https://www.nexford.edu/insights/how-will-ai-affect-jobs

[12] IAPP (2024): "The ethical use of AI in advertising". Online verfügbar unter: https://iapp.org/news/a/the-ethical-use-of-ai-in-advertising

[13] Hello Operator (2025): "GDPR Compliance for AI Ads: Best Practices". Online verfügbar unter: https://www.hellooperator.ai/blog/gdpr-compliance-for-ai-ads-best-practices

[14] Digiday (2025): "With layoffs the 'new normal', fear of AI's impact on adland's job market rises". Online verfügbar unter: https://digiday.com/marketing/as-industry-layoffs-become-the-new-normal-so-does-fear-of-ais-impact-on-adlands-job-market/

[15] NIH PMC (2024): "The persuasive effects of political microtargeting in the age of generative AI". Online verfügbar unter: https://pmc.ncbi.nlm.nih.gov/articles/PMC10849795/

[16] TechGDPR (2024): "AI and the GDPR: Understanding the Foundations of Compliance". Online verfügbar unter: https://techgdpr.com/blog/ai-and-the-gdpr-understanding-the-foundations-of-compliance/

[17] eMarketer (2024): "Advertising lost 800 jobs in September amid industry upheaval". Online verfügbar unter: https://www.emarketer.com/content/advertising-lost-800-jobs-september-amid-industry-upheaval

[18] Nature (2025): "Warning people that they are being microtargeted fails to eliminate persuasion". Online verfügbar unter: https://www.nature.com/articles/s44271-025-00188-8

[19] SurveyMonkey (2025): "28 AI marketing statistics you need to know in 2025". Online verfügbar unter: https://www.surveymonkey.com/mp/ai-marketing-statistics/

[20] Wikipedia (2024): "Filter bubble". Online verfügbar unter: https://en.wikipedia.org/wiki/Filter_bubble

[21] EU Parliament (2024): "EU AI Act: first regulation on artificial intelligence". Online verfügbar unter: https://www.europarl.europa.eu/topics/en/article/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence

[22] McKinsey (2025): "The State of AI: Global Survey 2025". Online verfügbar unter: https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai

[23] TechRxiv (2024): "AI Echo Chambers: How Algorithms Shape Reality, Influence Democracy, and Fuel Misinformation". Online verfügbar unter: https://www.techrxiv.org/users/892815/articles/1270092-ai-echo-chambers-how-algorithms-shape-reality-influence-democracy-and-fuel-misinformation

[24] AI Act EU (2024): "High-level summary of the AI Act". Online verfügbar unter: https://artificialintelligenceact.eu/high-level-summary/

[25] Eleken (2024): "18 Dark Patterns Examples (and How to Avoid Them)". Online verfügbar unter: https://www.eleken.co/blog-posts/dark-patterns-examples

[26] NIH PMC (2024): "AI-driven disinformation: policy recommendations for democratic systems". Online verfügbar unter: https://pmc.ncbi.nlm.nih.gov/articles/PMC12351547/

[27] IAPP (2024): "With SB 53, California puts AI disclosure requirements on the map". Online verfügbar unter: https://iapp.org/news/a/with-sb-53-california-puts-ai-disclosure-requirements-on-the-u-s-ai-regulatory-map

[28] Deceptive Design (2024): "Deceptive Patterns (aka Dark Patterns)". Online verfügbar unter: https://www.deceptive.design

[29] World Economic Forum (2024): "How AI can also be used to combat online disinformation". Online verfügbar unter: https://www.weforum.org/stories/2024/06/ai-combat-online-misinformation-disinformation/

[30] White & Case (2024): "California enacts landmark AI transparency law". Online verfügbar unter: https://www.whitecase.com/insight-alert/california-enacts-landmark-ai-transparency-law-transparency-frontier-artificial

[31] William & Mary Online (2024): "The Future of AI in Marketing: How Is It Reshaping the Industry?". Online verfügbar unter: https://online.mason.wm.edu/blog/future-of-ai-in-marketing

[32] IAPP (2024): "The ethical use of AI in advertising". Online verfügbar unter: https://iapp.org/news/a/the-ethical-use-of-ai-in-advertising

[33] Digiday (2024): "How deep learning is transforming advertising". Online verfügbar unter: https://digiday.com/sponsored/how-deep-learning-is-transforming-advertising-with-precision-privacy-and-performance/

[34] Madgicx (2024): "The Future of AI in Marketing: 7 Trends Shaping Performance". Online verfügbar unter: https://madgicx.com/blog/future-of-ai-in-marketing

[35] Marketing Dive (2024): "Why the advertising industry can't wait for responsible AI guidelines". Online verfügbar unter: https://www.marketingdive.com/news/why-advertising-industry-cant-wait-responsible-ai-guidelines/760604/

[36] BigABiD (2024): "Why Deep Neural Networks Are the Future of Mobile Ad Targeting". Online verfügbar unter: https://www.bigabid.com/deep-neural-networks-are-the-future-of-mobile-ad-targeting

#KünstlicheIntelligenz #DigitaleManipulation #Mikrotargeting #Deepfakes #PsychologischeProfile #Werbeindustrie #Automatisierung #AIAct #DigitaleTransparenz #Überwachungskapitalismus #DarkPatterns #DigitaleDemokratie #TechRegulierung #Arbeitsmarktwandel #AlgorithmischeMacht

Diskussion und Vertiefung: Sie können diesen Artikel mit meinem Brunhuber-Assistenten in ChatGPT weiter diskutieren.