Die Rolle von Dark-Ads im Brexit-Wahlkampf im Jahr 2016
Der Cambridge Analytica-Skandal hat den Einsatz von ‚Dark-Ads‘ im Brexit-Wahlkampf unter Rückgriff auf das Werbeinstrument des Microtargeting und den Missbrauch von Nutzer*innendaten durch den Tech-Giganten Facebook öffentlich gemacht. Strategien der digitalen Wahlmanipulation auf social media-Plattformen können das Prinzip der demokratischen Entscheidungsfindung auf gefährliche Weise unterwandern.
Am 23. Juni 2016 fand das Brexit-Referendum statt, bei dem die Bürger*innen des Vereinigten Königreichs in einer Volksabstimmung mit einer knappen Mehrheit für den Austritt aus der EU stimmten. Während des Wahlkampfs kamen digitale Wahlkampfstrategien zum Einsatz, darunter auch sogenannte ‚Dark-Ads‘ (dunkle bzw. geheime Anzeigen), die den Nutzer*innen über soziale Medien wie Facebook ausgespielt wurden. ‚Dark-Ads‘ sind bezahlte personalisierte Werbenachrichten, die über social media-Plattformen verbreitet werden und – anders als analoge Wahlwerbung – nicht für eine breite Öffentlichkeit sichtbar sind.
Der Datenmissbrauch von über 87 Millionen Facebook-Nutzer*innen weltweit durch das Datenanalyse-Unternehmen Cambridge Analytica erlangte große öffentliche Aufmerksamkeit und hat das Vertrauen in gerechte und faire Wahlen maßgeblich erschüttert. Beim Brexit-Wahlkampf im Jahr 2016 steuerte Cambridge Analytica unter dem Rückgriff auf ‚Dark-Ads‘ die digitale ‚Leave‘-Kampagne der Befürworter eines EU-Austritts.[1]
Worauf basiert das Geschäftsmodell solcher datenbasierten Wahlkampagnen?
Verhaltensbasiertes Microtargeting ist Zielgruppen gerichtete Werbung, die auf digitalen Verhaltens- und Nutzer*innendaten basiert. So wurden beim digitalen Brexit-Wahlkampf im Auftrag der liberalen Demokraten überwiegend junge bis mittelalte Männer fokussiert, denen dann sensationalistische, hassgeladene Werbebotschaften – unter anderem Attacken gegen damaligen Parteivorsitzenden Jeremy Corbyn – ausgespielt wurde.[2] Microtargeting ermöglicht es politischen Werbekampagnen, spezielle Gruppen, von denen sie sich die gewünschte Resonanz erhoffen – z.B. unentschlossene junge potentielle Wähler*innen, oder Menschen mit einem neurotischen Persönlichkeitsprofil – mit individuell zugeschnittenen Botschaften explizit anzusprechen. Aufgrund der vorangegangenen Analyse der personenbezogenen Daten, können Werbeaussagen gezielt an die Profile der ausgewählten Gruppe angepasst werden.[3] Tech-Giganten wie Facebook verfügen über eine große Anzahl persönlicher Datenpunkte ihrer Nutzer*innen (z.B. Alter, Geschlecht, geografische Lage). Diese werden teilweise zwar aktiv durch die Nutzer*innen preisgegeben, zu großen Teilen aber auch aus ihren Plattformaktivitäten (wie Likes, Kommentaren und Posts) und Browseraktivitäten gewonnen. Durch die Auswahl bestimmter Datenpunkte können Datenanalyst*innen diese große Menge an sensiblen personenbezogenen Daten analysieren. Daraus können sie die persönlichen Präferenzen ihrer Nutzer*innen ableiten, Vorhersagen über das Verhalten der Nutzer*innen treffen und daraus verschiedene Profile erstellen. Im Datenaustausch mit Partnerunternehmen können diese Nutzerprofile sogar noch weiter verfeinert werden.[4] Hier wird das hohe Maß an Intransparenz im Umgang der Digitalkonzerne mit personenbezogenen Daten ihrer Nutzer*innen deutlich.
[Vergleiche Schaubild oben]
Partei X beauftragt ein Datenanalyse-Unternehmen/ Kampagnen-Maker Y mit einem Werbeauftrag für eine politische Kampagne, die das Ziel verfolgt, Wahlergebnisse im eigenen Interesse zu beeinflussen. Dieses schließt einen Vertrag mit einer digitalen Plattform Z, die dem Kampagnen-Maker Y die Nutzerdaten bereitstellt. Mittels der Analyse der Nutzerdaten wählt Kampagnen-Maker Y diejenigen Werbeempfänger*innen aus, die von der politischen Kampagne überzeugt werden sollen, und passt die Werbebotschaft an die ausgewählte(n) Gruppe(n) an. Die ‚Dark-Ads‘ sind somit nur für die Plattform Z, das Kampagnen-Maker-Unternehmen Y und die anvisierten Nutzer*innen sichtbar.[5]
Datenanalyse-Unternehmen, wie Cambridge Analytica, können Kampagnen somit an gewünschte Zielgruppen adressieren. Die Plattform gleicht das detaillierte Nutzerprofil per Algorithmus mit den Zielgruppen ab, für die jeweils angepasste Werbeinhalte vorab vom Werbetreibenden eingestellt wurden.[6]
Problematisch am Microtargeting ist einerseits die fehlende Verfügung über Werbeinhalte durch Nutzende und andererseits die mangelnde Regulierung politischer Werbung auf digitalen Plattformen, weder durch die Unternehmen selbst, noch durch staatliche Kontrolle. Die Verbreitung politischer ‚Dark-Ads‘ kann mitunter eine Gefahr für die Demokratie darstellen.
Falschmeldungen und Negativwerbung bei Brexit-Kampagnen
Im Zuge des Brexit-Wahlkampfes nutzte sowohl das politischer Lager der EU-Verbleibs-Befürworter, darunter die Partei ‚Liberale Demokraten‘, als auch die die EU-Austrittsbefürworter, darunter die ‚Labour Party‘, verschiedene Targeting-Instrumente, um ihre Wahlkampagnen möglichst effektiv zu gestalten. Darunter waren positive Kampagnen, die den eigenen Standpunkt bewarben, aber auch negative Kampagnen, die auf die Diskreditierung des politischen Gegners abzielten.
Mit der ‚AB-Testing-Methode‘ wurden verschiedene Wahlwerbungsversionen darauf getestet, welche Werbeinhalte sich am besten für die Erreichung eines bestimmten politischen Ziels eigneten.[7]
Beim Brexit-Wahlkampf schienen dabei diejenigen Anzeigen, die auf sensationalistische Attacken gegen den politischen Gegner abzielten, am meisten Resonanz auf social media zu erfahren, sodass Negativkampagnen zu einer zentralen Werbestrategie wurden.[8]
Im Brexit-Wahlkampf gingen vom kanadischen Softwareunternehmen Aggregate IQ (AIQ) im Auftrag unterschiedlicher Brexit-Kampagnen werbepolitische Angriffe auf das gegnerische Lager in Form von digital verbreiteten Slogans und Bildern aus. Diese Angriffe dienten der Demobilisierung von ‚Remain‘-Wähler*innen. Die Werbung auf Facebook wurde von den Kampagnen ‚Vote Leave‘, ‚50 Million‘, ‚BrexitCentral/ BeLeave‘ und ‚DUP Vote to Leave‘ initiiert.
Eine investigative Recherche des Journalistenverbunds ‚Correctiv‘ zeigt, wie gezielte Desinformations-Kampagnen und Falschmeldungen über Facebook geschaltet wurden. So bestand eine Strategie der Kampagne ‚Vote Leave‘ darin, gezielte Falschmeldungen über die politische Zukunft der EU zu verbreiten. Diese wurden erst zwei Jahre nach dem Brexit-Referendum im Jahr 2018 vom parlamentarischen Ausschuss des britischen Unterhauses öffentlich gemacht.[9]
Wie an den abgebildeten Posts unten deutlich wird, mobilisierte die Kampagne ‚Vote Leave‘ (‚Wähle Austritt‘) im Jahr 2016 auf Facebook mit Falschmeldungen über einen angeblichen EU-Beitritt der Türkei und weiterer Länder auf rassistische Weise gegen einen Verbleib der Briten in der EU.
Werbeanzeigen der „Vote Leave“-Kampagne im Jahr 2016
Quelle: Helberg 2018
Gefahren und Risiken für demokratische Wahlen
Das Beispiel der Brexit-Kampagnen zeigt, wie der Tech-Gigant Facebook Nutzer*innendaten missbraucht hat und verdeutlicht die Gefahr, die von der Wahlkampf-Manipulation durch ‚Dark-Ads‘ ausgeht. Polarisierte Meinungen werden befeuert, wenn mit ‚Dark-Ads‘ unterschiedliche Botschaften mit sich teils sogar widersprechenden Aussagen, von ein und derselben Kampagne an verschiedene Zielgruppen ausgespielt und politische Wahlinhalte somit gezielt fragmentiert werden. Die affektive Ansprache durch Negativkampagnen sowie die Verbreitung von Fake News über das Werkzeug ‚Dark-Ads‘ wirken ebenfalls polarisierend. Für die Brisanz der antidemokratischen Wahlbeeinflussung im digitalen Raum spricht, dass Fake News besonders häufig von populistischen Akteuren verbreitet werden, wie eine Studie zu Fake News im Bundestagswahlkampf 2017 der ‚Stiftung neue Verantwortung‘ aus dem Jahr 2018 zeigt. [10] Die mangelnde Regulierung von politischer Werbung im digitalen Raum bietet verschiedensten politischen Interessensgruppen die Möglichkeit, Falschmeldungen über das Instrument der ‚Dark-Ads‘ zu verbreiten. Dies stellt insofern eine Gefahr für die Demokratie dar, als dass demokratische Wahlen von Unwahrheiten manipuliert werden können.
Quellen
Dierks, Benjamin (2018). Propaganda, Lügen, Fake News: Soziale Medien und das Brexit-Referendum. Online verfügbar unter https://www.deutschlandfunk.de/soziale-medien-und-das-brexit-referendum-propaganda-luegen.724.de.html?dram:article_id=430936, zuletzt geprüft am 24.02.2021.
Helberg, Cristina (2018). Dark-Ads bei Facebook: Wie mit Falschnachrichten Stimmung für den Brexit gemacht wurde. Online verfügbar unter https://correctiv.org/faktencheck/hintergrund/2018/08/06/dark-ads-bei-facebook-wie-mit-falschnachrichten-stimmung-fuer-den-brexit-gemacht-wurde/, zuletzt geprüft am 17.02.2021.
Hotham (2019). We need to talk about A/B testing: Brexit, attack ads and the election campaign. Online verfügbar unter https://blogs.lse.ac.uk/brexit/2019/11/13/we-need-to-talk-about-a-b-testing-brexit-attack-ads-and-the-election-campaign/, zuletzt aktualisiert am 23.01.2020, zuletzt geprüft am 17.02.2021.
Jaursch, Julian (2020). Regeln für faire digitale Wahlkämpfe: Online verfügbar unter https://www.stiftung-nv.de/de/publikation/regeln-fuer-faire-digitale-wahlkaempfe, zuletzt aktualisiert am 16.06.2020, zuletzt geprüft am 17.02.2021.
Kreysler, Peter (2019). Der unregulierte Wahlkampf im Netz – Digitale Brandbeschleuniger. Online verfügbar unter https://www.deutschlandfunkkultur.de/der-unregulierte-wahlkampf-im-netz-digitale.3720.de.html?dram:article_id=456530, zuletzt aktualisiert am 17.02.2021, zuletzt geprüft am 17.02.2021.
Sängerlaub, Alexander; Meier, Miriam; Rühl, Wolf-Dieter (2018). Fakten statt Fakes: Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017. Online verfügbar unter https://www.stiftung-nv.de/de/publikation/fakten-statt-fakes-verursacher-verbreitungswege-und-wirkungen-von-fake-news-im, zuletzt aktualisiert am 23.08.2019, zuletzt geprüft am 18.02.2021.
[1] Kreysler, Peter (2019): Der unregulierte Wahlkampf im Netz – Digitale Brandbeschleuniger, S. 3. Online verfügbar unter https://www.deutschlandfunkkultur.de/der-unregulierte-wahlkampf-im-netz-digitale.3720.de.html?dram:article_id=456530, zuletzt aktualisiert am 17.02.2021, zuletzt geprüft am 17.02.2021.
[2] Hotham (2019). We need to talk about A/B testing: Brexit, attack ads and the election campaign. Online verfügbar unter https://blogs.lse.ac.uk/brexit/2019/11/13/we-need-to-talk-about-a-b-testing-brexit-attack-ads-and-the-election-campaign/, zuletzt aktualisiert am 23.01.2020, zuletzt geprüft am 17.02.2021.
[3] Jaursch, Julian (2020). Regeln für faire digitale Wahlkämpfe, S. 14. Online verfügbar unter https://www.stiftung-nv.de/de/publikation/regeln-fuer-faire-digitale-wahlkaempfe, zuletzt aktualisiert am 16.06.2020, zuletzt geprüft am 17.02.2021.
[4] Jaursch, Julian (2020). Regeln für faire digitale Wahlkämpfe, S. 14, 32. Online verfügbar unter https://www.stiftung-nv.de/de/publikation/regeln-fuer-faire-digitale-wahlkaempfe, zuletzt aktualisiert am 16.06.2020, zuletzt geprüft am 17.02.2021.
[5] Kreysler, Peter (2019): Der unregulierte Wahlkampf im Netz – Digitale Brandbeschleuniger, S. 6. Online verfügbar unter https://www.deutschlandfunkkultur.de/der-unregulierte-wahlkampf-im-netz-digitale.3720.de.html?dram:article_id=456530, zuletzt aktualisiert am 17.02.2021, zuletzt geprüft am 17.02.2021.
[6] Jaursch, Julian (2020). Regeln für faire digitale Wahlkämpfe, S. 22. Online verfügbar unter https://www.stiftung-nv.de/de/publikation/regeln-fuer-faire-digitale-wahlkaempfe, zuletzt aktualisiert am 16.06.2020, zuletzt geprüft am 17.02.2021.
[7] Hotham (2019). We need to talk about A/B testing: Brexit, attack ads and the election campaign. Online verfügbar unter https://blogs.lse.ac.uk/brexit/2019/11/13/we-need-to-talk-about-a-b-testing-brexit-attack-ads-and-the-election-campaign/, zuletzt aktualisiert am 23.01.2020, zuletzt geprüft am 17.02.2021.
[8] Jaursch, Julian (2020). Regeln für faire digitale Wahlkämpfe, S. 29. Online verfügbar unter https://www.stiftung-nv.de/de/publikation/regeln-fuer-faire-digitale-wahlkaempfe, zuletzt aktualisiert am 16.06.2020, zuletzt geprüft am 17.02.2021.
[9] Helberg, Cristina: Dark-Ads bei Facebook: Wie mit Falschnachrichten Stimmung für den Brexit gemacht wurde. Online verfügbar unter https://correctiv.org/faktencheck/hintergrund/2018/08/06/dark-ads-bei-facebook-wie-mit-falschnachrichten-stimmung-fuer-den-brexit-gemacht-wurde/, zuletzt geprüft am 17.02.2021.
[10] Sängerlaub, Alexander; Meier, Miriam; Rühl, Wolf-Dieter (2018). Fakten statt Fakes: Verursacher, Verbreitungswege und Wirkungen von Fake News im Bundestagswahlkampf 2017. Online verfügbar unter https://www.stiftung-nv.de/de/publikation/fakten-statt-fakes-verursacher-verbreitungswege-und-wirkungen-von-fake-news-im, zuletzt aktualisiert am 23.08.2019, zuletzt geprüft am 18.02.2021.