Weniger Desinformation und Hass im Wahlkampf. Vorschläge zur Entgiftung der Debattenkultur

Analyse

Der Bundestagswahlkampf spielte sich wie nie zuvor im Internet ab. Das war in der Corona-Pandemie zwar notwendig, brachte aber alle Übel mit sich, die wir bereits aus US-Wahlkämpfen kennen: Mit Desinformationskampagnen und Hassrede wurden Kandidat*innen diskreditiert, bezahlte politische Online-Werbung und ausländische Einflussnahme unterliefen demokratische Grundwerte. Die grüne Kanzlerkandidatin Annalena Baerbock war als Frau besonders betroffen. Die Wahl hat gezeigt, dass wir in Deutschland und in der EU eine bessere Medienkompetenz der Bevölkerung sowie klare Regeln für Kommunikations-Plattformen brauchen.

Teaser Bild Untertitel
Die drei deutschen Spitzenkandidaten für das Amt des Bundeskanzlers: Annalena Baerbock (Bündnis 90/Die Grünen), Olaf Scholz (SPD) und Armin Laschet (CDU/CSU).

Wer im Hashtag-Zeitalter Wahlkampf macht, braucht ein dickes Fell. Vor der Bundestagswahl konnte sich der angeschlagene CDU-Kandidat Armin Laschet vor Spott und Hass im Internet kaum retten: Hashtags wie #laschetluegt und #laschetschreibtab trendeten auf Twitter, als Plagiatsvorwürfe gegen ihn bekannt wurden. Als er im Sommer die von der Flutkatastrophe in Westdeutschland betroffenen Gebiete besuchte, machte er den Fehler, im Hintergrund mit seinen Beratern zu scherzen, während Bundespräsident Frank-Walter Steinmeier eine Ansprache hielt. Sofort hatte er den nächsten Hashtag weg: #laschetlacht.

Werden Politiker*innen mit Hasskampagnen und digitaler Gewalt konfrontiert, stellt dies eine ernst zu nehmende Gefahr für den demokratischen Prozess dar. Was für Laschet als politischen Bewerber (hier im Fall der Plattform Twitter) galt, trifft Politikerinnen erst recht. Zwar war Grünen-Kanzlerkandidatin Annalena Baerbock laut HateAid-Gründerin Anna-Lena von Hodenberg nicht häufiger von Hasskommentaren betroffen, bei ihr kam aber Sexismus dazu. Direkt zu Beginn von Baerbocks Kampagne im April zirkulierte z.B. ein gefälschtes Nacktfoto von ihr und unterstellte, sie habe Sexarbeit verrichtet.

Mit digital stattfindendem Wahlkampf sind Risiken verbunden. So bedienten sich Parteien in diesem Bundestagswahlkampf vermehrt Kommunikations-Plattformen für (bezahlte) politische Werbung. Sie setzten durch sogenanntes Microtargeting verstärkt auf bestimmte Zielgruppen zugeschnittene Werbung ein. Werden potentiellen Wähler*innen in ihrem Newsfeed nur bestimmte Informationen anhand persönlicher Merkmale präsentiert, birgt dies das Risiko, dass der politische Wettstreit gezielt manipuliert wird. Auch Desinformationskampagnen aus dem Ausland stellen eine wachsende Gefahr dar. Bereits im März 2021 stellte der Europäische Auswärtige Dienst fest, dass Deutschland Hauptziel von Kampagnen durch dem Kreml nahestehende Medien ist. Zuvor fanden schon Phishing-Angriffe auf Mitglieder des Bundestages und der Landesparlamente statt – die dabei erbeuteten Daten können bei bestimmten Gelegenheiten zur gezielten Einflussnahme verwendet werden. 2017 haben dies die E-Mail-Leaks des damaligen Präsidentschaftskandidaten Emmanuel Macron in den letzten Stunden des französischen Präsidentschaftswahlkampfs bewiesen.

Digitale Hetze und Desinformation

Schon vor Beginn des eigentlichen Wahlkampfes zur Bundestagswahl zeichnete sich ab: Gezielte Hasskampagnen gegen Politiker*innen stellen ein ernst zu nehmendes Problem dar. Eine Untersuchung von HateAid  zeigte, dass vor allem die Spitzenkandidat*innen der Parteien in diesem Wahlkampf von Hass und Hetze im Netz betroffen waren. Plagiatsvorwürfe gegen Armin Laschet, ähnlich wie zuvor gegen Annalena Baerbock, zirkulierten in Telegram-Gruppen. Auf der Plattform Twitter stand der CDU-Kanzlerkandidat dabei mit Abstand an der Spitze, gefolgt von den Grünen- und SPD-Kandidat*innen Annalena Baerbock und Olaf Scholz.

 

Desinformation hat in diesem Wahlkampf eine wichtige Rolle gespielt und wird zu einem immer größeren Online-Risiko für die politische Meinungsbildung. Darunter fallen Informationen, die falsch sind und bewusst schaden wollen – sie richten sich gegen Personen, Gruppen oder auch gegen ein bestimmtes Land. Desinformationskampagnen verbreiten sich im Netz mit rasender Geschwindigkeit. Sie schüren Hass und stärken extremistische Haltungen sowie ein wachsendes Misstrauen in Institutionen. Laut einer Forsa-Umfrage im Auftrag der Landesanstalt für Medien NRW äußerten schon im Juli dieses Jahres 82 Prozent der Befragten die Sorge, dass politische Desinformationskampagnen aus dem In- und Ausland den demokratischen Prozess beeinflussen könnten. 71 Prozent der Befragten haben Desinformation im Zuge des politischen Wahlkampfs im Netz wahrgenommen (2020 waren es schon 66 Prozent).

Desinformationsnarrative stammen häufig auch aus dem Inland. Als „Vorbild“ dienen den Urheber*innen allerdings gerne Kampagnen aus anderen Ländern, etwa den USA. So begann die AfD schon früh, Zweifel an der Rechtmäßigkeit der Wahl zu säen. Von „Briefwahl-Betrug“ war die Rede, „Stimmzettel gehören in die Wahlurne, nicht in den Briefkasten“, hieß es in einem Video der Partei. Das vor allem bei jungen Nutzer*innen beliebte Netzwerk TikTok ist auch zum Ort für Wahlwerbung und Desinformation zur Bundestagswahl geworden. Junge Influencer*innen sprachen sich dort offen für die politischen Inhalte der AfD aus, berichten Khesrau Behroz und Patrick Stegemann im Podcast Noise.

Geschlechtsspezifischer Hass

Desinformationskampagnen haben häufig einen geschlechtsspezifischen Charakter. Im Wahlkampf zur Bundestagswahl 2021 war Grünen-Kanzlerkandidatin Annalena Baerbock das Hauptziel von Desinformationskampagnen, wie eine vom Institute for Strategic Dialogue (ISD) mit Fokus auf Facebook und Telegram durchgeführte Studie aus dem September zeigt. Mehr als die Hälfte aller Erwachsenen in Deutschland erhielten falsche Informationen über die Kandidatin. Expert*innen zeigten sich schockiert darüber, wie schnell und intensiv sich geschlechtsspezifische Hassinhalte und Desinformation über Frauen im Wahlkampf verbreitet haben. Josephine Ballon, Juristin bei HateAid, erklärte: „Was sich hier abspielt, ist geschlechtsspezifischer Hass. Diese Art von Hass zielt darauf ab, die Zielperson zu diskreditieren und zum Schweigen zu bringen.“ Es geht hierbei nicht um sachliche Kritik an der Kandidatin, sondern um gezielte und verletzende Angriffe. Laut ISD war Baerbock häufiger verbalen Angriffen, sexuellen Herabsetzungen und Androhungen von Gewalt ausgesetzt als ihre Wettbewerber Scholz und Laschet.

Hasskriminalität und konstante Desinformationsnarrative gegen Kandidat*innen im Wahlkampf zeichnen ein trauriges politisches Bild – die ISD-Studie konstatiert eine besorgniserregende Zunahme von beidem. Diese Entwicklungen lassen befürchten, dass insbesondere Frauen* davor zurückschrecken, sich politisch zu engagieren und zu kandidieren. In Deutschland gilt für Plattformanbieter seit vier Jahren das Netzwerkdurchsetzungsgesetz (NetzDG) gegen Hass im Netz.  Zwar führte das NetzDG zu einzelnen Urteilen gegen Hetzer*innen im Netz und dem Löschen von Hasskommentaren. Im Umgang mit digitaler Gewalt zeigt es sich jedoch wenig effektiv. 2020 stellte zum Beispiel das Counter Extremism Project fest, dass YouTube nur 35 Prozent der von ihnen als offensichtlich rechtswidrig gemeldeten Inhalte gelöscht hat. Auch greift das NetzDG nicht bei Messenger-Diensten wie Telegram, die mittlerweile eine wichtige Rolle bei der Verbreitung von Hass im Netz und Desinformation spielen.

Politische Online-Werbung: intransparent und unreguliert

Digitale Kommunikationsplattformen werden immer wichtiger für die politische Meinungsbildung: Seit Jahren steigt die Reichweite von Plattformen als Nachrichtenquelle – im vergangenen Jahr informierten sich laut einer vom Hans-Bredow-Institut durchgeführten Studie 37 Prozent der Befragten mithilfe sozialer Netzwerke. Der Wahlkampf zur Bundestagswahl fand auch aufgrund der Pandemie oft im digitalen Raum statt. Damit nahm zugleich die Relevanz dieser Plattformen für bezahlte politische Online-Wahlwerbung zu. Diese ist aber – im Unterschied zu „traditioneller“ Wahlwerbung im Fernsehen oder auf Plakaten – fast gänzlich unreguliert. Es fehlt vor allem an Transparenz, denn den Umgang mit (bezahlter) politischer Online-Werbung regeln die Plattformen selbst. Für Postwurfsendungen gibt es „klare Vorgaben, welche demografischen Daten von wem genutzt werden dürfen“, schreibt Julian Jaursch von der Stiftung Neue Verantwortung (SNV). Diese Regeln sollten auch für Microtargeting auf den großen Plattformen gelten.

Mit dieser Entwicklung gehen eine Reihe von Herausforderungen einher: Mit dem Zuwachs an politischer Online-Werbung steigt auch die Zahl der Werbetreibenden. Darunter fallen Lobbyorganisationen, Influencer*innen und auch extremistische Vereinigungen. Besonders problematisch wird es, wenn bestimmte Inhalte gar nicht erst zugänglich sind, etwa wenn Politiker*innen über Messenger-Dienste wie Telegram oder WhatsApp in Gruppen kommunizieren. Diese Dienste, ursprünglich zur Individualkommunikation gedacht, entwickeln sich zunehmend zu in Gruppen organisierten Plattformen. Sie laufen bei der Moderation von Inhalten häufig unter dem Radar. Die breite Sammlung von Verhaltensdaten auf den Plattformen ermöglicht es, dass bestimmte Personengruppen maßgeschneiderte Werbung zugespielt bekommen. Der Löwenanteil dieses datengestützten Ökosystems wird von Tech-Firmen kontrolliert, die Werbeeinnahmen abschöpfen. Verlagen, Qualitätsjournalismus und anderen kreativen Branchen bricht dadurch die Finanzierung weg. Gleichzeitig ermöglicht eine auf Tracking basierende Werbeindustrie die Finanzierung und Verbreitung von Desinformation, denn diese baut häufig auf negativen Emotionen auf und ist nicht an die Wahrheit gebunden. Negative und populistisch vereinfachte Inhalte, wie oft bei Desinformation der Fall, erzielen ein höheres User Engagement.  Damit steigt die Wahrscheinlichkeit, dass mehr Nutzer*innen die Inhalte sehen und es lassen sich höhere Werbeeinnahmen erzielen.

Desinformation wirkungsvoller bekämpfen

Was in Europa im Bereich der Tech-Regulierung passiert, inspiriert oft auch Länder außerhalb der EU, wie es z.B. bei der Datenschutz-Grundverordnung der Fall war. Der Schutz der Demokratie ist Aufgabe des Rechtsstaates. Deshalb hat die EU-Kommission im Dezember 2020 mit dem Digitale-Dienste-Gesetz (Digital Services Act, DSA) einen Paradigmenwechsel in der Plattformregulierung angestoßen. Künftig müssen etwa YouTube oder Facebook proaktiv darlegen, dass sie ausreichende Maßnahmen ergreifen, um der Verbreitung strafbarer Inhalte auf ihren Diensten entgegenzuwirken. Für den Bundestagswahlkampf 2021 kam die EU-Initiative allerdings zu spät.

Im Kampf gegen Desinformation versprechen der DSA und der dazugehörige Verhaltenskodex zur Desinformation im Moment leider wenig Hoffnung. Der DSA sieht vor, dass Kommunikations-Plattformen „illegale Inhalte“ entfernen müssen, sobald sie erkannt oder ihnen gemeldet werden; andernfalls drohen hohe Geldstrafen. Der begleitende freiwillige Kodex, der erstmals 2018 eingeführt und in diesem Jahr aktualisiert wurde, wendet dasselbe Prinzip an: Er verlangt von Unternehmen, als falsch erachtete Inhalte und Konten, die diese verbreiten, entweder zu entfernen oder herabzustufen. Die Verantwortung wird dadurch an private Technologieunternehmen abgegeben. Hinter verschlossenen Türen wird entschieden, was illegale oder schädliche Inhalte sind. Was als Falsch- oder Desinformation gilt, ist nicht klar definiert. Etwas mehr Klarheit könnte geschaffen werden, wenn zukünftig Hetze und Hasskriminalität in das EU-Straftatenverzeichnis aufgenommen werden, wie im Arbeitsprogramm der Europäischen Kommission für diesen Herbst angekündigt wurde.

Jeder Ansatz zur Bekämpfung von Desinformationen sollte sich in erster Linie mit den Gründen befassen, warum Menschen sie überhaupt erst in die Welt setzen und was die Ursachen dafür sind, dass solche Inhalte auf Kommunikations-Plattformen so stark verbreitet werden. In den Verhandlungen um das Digitale-Dienste-Gesetz müssen sich die verhandelnden Abgeordneten des Europäischen Parlaments dafür einsetzen, das Problem an der Wurzel zu bekämpfen.

Demokratische Grundwerte stärken – auf rechtlicher und politischer Ebene

Laut einer Studie der Stiftung Neue Verantwortung glauben 24 Prozent der Deutschen, dass Medien die Bevölkerung in Deutschland systematisch belügen. Weitere 30 Prozent sind der Meinung, dass dies zumindest teilweise der Fall ist. Demokratien sind auf gut informierte Bürger*innen angewiesen, doch oft sind diese auf sich allein gestellt. Ob Menschen in der Lage sind, Nachrichten zu verstehen und einzuordnen oder zu hinterfragen, hat Einfluss auf das Vertrauen in demokratische Institutionen. Die Medienkompetenz und -bildung der Bevölkerung ist daher ein entscheidender Faktor in der demokratischen Debatte – ebenso wie unabhängiger Journalismus und eine starke Zivilgesellschaft.

Vor der neuen Bundesregierung liegt eine massive Aufgabe. Eine klare Strategie gegen Desinformation und Hasskampagnen hatten im Wahlkampf weder die Regierung noch die Plattformanbieter. Auch gegen gezielte Hacker-Angriffe aus anderen Staaten braucht es ein gutes Schutzkonzept. Zwar wird momentan mit dem Digital Services Act ein wichtiges Gesetz zur Verantwortlichkeit der Plattformanbieter verhandelt. Es sollten aber auch aus der Erfahrung mit dem Wahlkampf Lehren für den Umgang mit den Risiken auf Kommunikations-Plattformen gezogen werden.

Was bisher fehlt, ist Transparenz hinsichtlich der Prozesse der Plattformen. Hier braucht es ein durchsetzbares Datenzugangsrecht für Forscher*innen. Plattformen, die in der Verbreitung von Hass- und Desinformationskampagnen bisher unter dem Radar liefen, aber auch politische Online-Werbung sollten stärker in den Blick der Regulierer*innen genommen werden. Darunter fällt z.B die Kommunikation auf Messenger-Diensten wie Telegram, gemeint sind aber auch Live-Videos auf Plattformen wie YouTube oder TikTok. Die Parteien selbst können in der neuen Legislaturperiode ebenfalls einen Beitrag leisten und sich mit einem Verhaltenskodex zu einem fairen und transparenten Wahlkampf verpflichten – nicht zuletzt auch, wenn es um politische Online-Werbung geht.