Social Bots sind eine Gefahr für die Demokratie

Medien

Jeder, der genügend Geld hat, kann sich bei einem 18-jährigen Schüler aus Amsterdam ein Stückchen Meinungsmacht kaufen. Was sich anhört wie der Plot einer amerikanischen Vorabendserie, ist Realität. Lennart V. hat sich als Social-Bot-Programmierer auf Fake-Accounts in sozialen Medien spezialisiert – ein sehr einträgliches Geschäft, wenn man seinen Aussagen glaubt.

Der Begriff “Social Bot” bedeutet übersetzt sozialer Roboter. Im Grunde genommen handelt es sich um kleine, sehr intelligente Software-Programme, die sich so verhalten, als seien sie reale, menschliche Nutzer. Hierfür werden die Profile meist mit echten Fotos aus dem Internet oder belanglosen Comic-Zeichnungen sowie mit einer erfundenen Biografie bestückt und die Bots mit anderen realen Nutzern vernetzt. Wohl jeder User kennt die gut aussehenden jungen Frauen, die einem auf Face­book eine Freundschaftsanfrage senden. Sie werden zu tausenden programmiert. Schätzungen gehen von 100 Millionen Fake-Accounts auf allen großen Plattformen aus. Prognosen sagen zudem ein starkes Wachstum in den nächsten Jahren voraus. Und die Bots werden immer schlauer.

Dank künstlicher Intelligenz können diese “Nutzer” nicht nur die Follower- und Fanzahlen politischer Accounts in die Höhe schnellen lassen oder die Abrufzahlen von Videos manipulieren. Sie posten auch selbstständig eigene Inhalte und antworten auf Postings realer Nutzer, veröffentlichen Tweets sowie Facebook- oder Youtube-Kommentare. In letzter Zeit wurden Chat-Bots beobachtet, die sinnvolle und durchaus längere politische Diskussionen führen und verschiedene Argumente austauschen können, ohne dass sich der “Besitzer” des Bots auch nur eine Sekunde darum kümmern musste.

Die Trollarmeen, die im Auftrag der russischen Regierung Stimmung in deutschen Kommentarspalten machen, sind seit Längerem bekannt. Dahinter stehen reale Menschen, die im Sinne der Regierung Meinungen im In- und Ausland beeinflussen sollen (Digital Diplomacy). Bots stellen eine neue und bei weitem gefährlichere Dimension dieser Entwicklung dar. Sie sind effizienter, schneller und können wesentlich mehr Kommentare in kürzerer Zeit verfassen.

Eine Gefahr für die Demokratie

Politische Meinungsbildung findet – nicht nur bei netzaffinen – Politikern und Parteien immer stärker im Netz statt. Diese Entwicklung ist sehr zu begrüßen. Neben Telefonumfragen, Feedback auf dem Marktplatz oder im Bürgerbüro gehört der Online-Kanal immer öfter als fester Bestandteil zum politischen Trend- und Stimmungsmonitoring. Mit allen bekannten Schwächen. Selbstverständlich erhalten Politiker so nur das Feedback eines Ausschnitts der Gesellschaft, aber das ist bei Telefonumfragen und Besuchen im Seniorenheim auch nicht anders.

Allerdings birgt die stärkere Nutzung von Social Media für die Meinungsbildung ein größeres Einfallstor für Manipulationen. So beobachtete Professor Simon Hegelich von der Technischen Universität München unter anderem auf dem Facebook-Account der CSU, wie Social Bots versuchten, Meinungen zu beeinflussen. Unter den Beiträgen der Partei tauchten immer wieder fremdenfeindliche Kommentare auf, die Hegelich ziemlich sicher Social Bots zuordnen konnte. Oft reicht schon ein einziger manipulativer Kommentar aus, um eine Hasstirade echter Benutzer auszulösen. Eine sachliche Diskussion über ein kontroverses Thema wird so unmöglich.

Auch auf Twitter wurden in der Vergangenheit mit gezielt gestreuten Gerüchten oder Falschmeldungen, beispielsweise unter den Hashtags #RapeFugees und #RefugeeesNotWelcome unzählige fremdenfeindliche Tweets von Bots versendet. Hegelich vermutet, dass der Großteil des Twitter-Traffics von Social Bots kommt. Die Programme suchen dabei ständig nach bestimmten Schlagworten und veröffentlichen dann automatisierte Beiträge.
Für Politik und Medien sind Twitter- sowie Google­- oder Facebook-Trends zur Grundlage von Analysen und Nachrichten geworden. Die Berichterstattung beruft sich immer wieder auf diese Stimmungen, auch wenn diese mitunter auf nur wenigen hundert Tweets basieren. Diese Trends nehmen so Einfluss auf Beratungen von Parteigremien oder bei der Positionierung im politischen Diskurs.

Neben der Schaffung von Zerrbildern können Bots zudem Diskurse komplett zerstören, wie Linus Neumann vom Chaos Computer Club beobachtet hat. Sobald Bots einen öfter verwendeten Hashtag entdeckt haben, kapern sie diesen, indem sie unzählige inhaltlich unpassende Spam-Tweets versenden. Damit wird es für reale Nutzer fast unmöglich, eine Diskussion gehaltvoll zu verfolgen. Oft bricht der Diskurs ab, weil Nutzer genervt sind.

Digitales Leadership

Wie aber sollte die Politik nun mit dieser Form des öffentlichen Agenda Settings und der Meinungsbeeinflussung umgehen? Vier Ansatzpunkte lassen sich identifizieren:

1. Sensibilisierung: Wie bei allen neuen Phänomenen ist zuallererst wichtig, dass sowohl politische Entscheider als auch Beobachter um die Möglichkeiten und Wirkungsmacht von Bots wissen. Eine Sensibilisierung der Akteure sollte schnell auf allen Ebenen erfolgen: im Bund, in den Ländern sowie auf kommunaler Ebene, ebenso bei Journalisten, Mandatsträgern und Mitarbeitern.

2. Tools: Es gibt schon länger spezialisierte Dienste wie “Bot or Not”, die Bots schnell und sicher erkennen. Auf Basis von Spracherkennung und semantischer Kategorisierung erkennen diese Muster und können so Bots identifizieren. Da das Gros der Tools bisher nur für englische Bots funktioniert, sollten Dienstleister die Services weiter ausbauen und die Wissenschaft Forschungsbemühungen forcieren, insbesondere in Deutschland, wo die Disziplin noch unterentwickelt ist.

3. Austausch: Parteien und politische Akteure sollten sich stärker über das Thema Bots austauschen. Aktuelle Angriffe, entdeckte Bot-Armeen und auffälliges Fan- und Follower-Wachstum sollten zeitnah öffentlich gemacht werden. Außerdem sollte unter den demokratischen Akteuren ein System des Austauschs etabliert werden. Nur so lässt sich gesamtgesellschaftlich gegen Bots vorgehen.

4. Netzwerke: Aus ureigenem Interesse heraus sollten auch die Plattformen alles tun, um Bot-Netzwerke zu enttarnen und zu entfernen. Zudem müssen die Netzwerke mehr Aufklärungsarbeit für die Nutzer leisten und das Thema aktiv kommunizieren, denn nur mithilfe der User lässt sich das Problem bekämpfen. Ist das Vertrauen in die Aussagekraft der Netzwerke erst einmal erschüttert, sind die Geschäftsmodelle der Anbieter in Gefahr.

Fazit

Digitale Meinungen müssen beachtet, aber eben auch bewertet und eingeordnet werden. Bots und von ihnen initiierte Proteststürme und Meinungsumschwünge sollten möglichst ignoriert werden. Dies erfordert allerdings mehr Aufwand, Aufmerksamkeit und erweiterte Kompetenzen auf Seiten der politischen Führung.

Dieser Beitrag erschien zuerst in der gedruckten Ausgabe politik&kommunikation II/2016 Leadership. Das Heft können Sie hier bestellen.