LOTTA

Kampf um die Algorithmen

Politisches Trolling von rechts

Rechte Aktivist\_innen nutzen seit Jahren diverse Trollingtechniken, um Diskurse in öffentlichen Debatten zu platzieren. Sie versuchen durchaus erfolgreich, die Algorithmen der sozialen Netze so zu beeinflussen, dass ihre Themen sichtbar werden.

Rechte Aktivist_innen nutzen seit Jahren diverse Trollingtechniken, um Diskurse in öffentlichen Debatten zu platzieren. Sie versuchen durchaus erfolgreich, die Algorithmen der sozialen Netze so zu beeinflussen, dass ihre Themen sichtbar werden.

Als Trolling wird im Internet ein antisoziales Verhalten bezeichnet, das sich durch Provokation, das Stören von Diskussionen und durch sachfremde und ablenkende Beiträge auszeichnet. Sein Ziel ist es, negative emotionale Reaktionen zu erzeugen und Diskurse zu beeinflussen. Trolle wollen nicht diskutieren, sondern manipulieren, sie kämpfen nicht um Argumente, sondern um Aufmerksamkeit. Neben der Nutzung destruktiver rhetorischer Strategien versucht Trolling, die technische Seite des Netzes zu manipulieren. Trolling ist auch ein Kampf um die Algorithmen des Internets.

Die Macht der Algorithmen

Algorithmen bestimmen, was wir bei Suchmaschinen und auf Social-Media-Plattformen zu sehen bekommen. Algorithmen filtern die persönliche Wirklichkeitswahrnehmung der User_innen. Sie erzeugen mit der ihnen inhärenten Logik — die sich im Kern an den Verwertungsinteressen der Plattformbetreiberfirmen orientiert — diskursive Relevanzen und Wirklichkeitskonstruktionen. Diesen Prozess in ihrem Sinne zu beeinflussen, ist rechten Akteuren in den letzten Jahren in bemerkenswerter Weise gelungen.

Ein Algorithmus ist eine Rechenvorschrift, die entscheidet, was den User_innen auf dem Bildschirm angezeigt wird. Manchmal werden Algorithmen mit Kochrezepten verglichen, aber diese Analogie trifft den Charakter moderner, lernender Algorithmen nicht. Bei einem Kochrezept handelt es sich um eine Vorschrift dafür, wie ein möglichst immer gleiches Ergebnis erzielt werden kann. Moderne Algorithmen hingegen wollen kein bestimmtes Ziel Z erzeugen. Im Gegenteil: Sie sind darauf ausgelegt, für Nutzer A ein anderes Ergebnis zu erzielen als für Nutzerin B, weil sie in Abhängigkeit vom bisher gezeigten Verhalten einschätzen, was jeweils interessant und relevant sein könnte. So soll die Verweildauer auf einer Seite oder Plattform erhöht werden.

Wie genau solche Algorithmen funktionieren, ist Geschäftsgeheimnis der Unternehmen. Allein Facebook hält mehrere Hundert Patente auf spezialisierte Algorithmen. Auch welche Treffer und Nachrichten bei einer Google-Suche angezeigt werden, ist das Ergebnis eines im Detail unbekannten Rechenprozesses, dessen Parameter durch das eigene Suchverhalten und das aller anderen User_innen beeinflusst werden. Nachrichten und Beiträge, die häufig angesehen, kommentiert oder „gelikt“ werden, landen an prominenter Stelle in der Timeline. Alles, was Aufmerksamkeit erzeugt, wird mit Sichtbarkeit belohnt. Das ist das Prinzip der Aufmerksamkeitsökonomie.

„Gaming the Algorithm“

Das Bestreben, diese Sichtbarkeit zu erlangen, ein Produkt, einen Diskurs oder eine Ideologie am Markt zu platzieren, hat Berufsfelder wie „Social Media Optimization“ hervorgebracht. Und es hat schon früh Gamer_innen und Nerds auf den Plan gerufen, die sich einen Spaß daraus machten, Algorithmen zu manipulieren: „Gaming the algorithm“.

Just for fun? Was in den Mechanismen der netzbasierten Aufmerksamkeitsökonomie an politischem Potential steckt, haben Akteure der extremen Rechten früh erkannt. Das Entstehen der amerikanischen „Alt-Right“ ist untrennbar verbunden mit bestimmten Internet-Subkulturen, vor allem mit der Plattform 4chan und ihrem Unterforum „4chan/pol/“. Hier flossen alte rassistische Ideologien mit einem neuen Medienökosystem zusammen. Hier wurden Aktionsformen entwickelt und erprobt, auf die Politik und Gesellschaft vielfach bis heute noch keine angemessene Antwort gefunden haben. Diese Art von politischem Trolling, das mittlerweile auch in Europa Fuß gefasst hat, lebt von zwei wesentlichen Elementen: Koordination und Verstärkung.

Auf 4chan und auf anderen randständigen Plattformen sammelte sich restriktionslos alles, was manche adoleszente Männer witzig und spannend finden, von Gaming über Pornografie und Sport bis zu Politik. Pausenlos weitergereichte Insider-Witze in Form von „Memes“, meist kleine Bild-Text-Botschaften oder Videos, etablierten sich als Diskurskondensate. In einem einzigen „Meme“-Symbol kann eine ganze Erzählung stecken. Unterforen wie „4chan/pol/“ gefielen sich in der Verteidigung schrankenloser „Meinungsfreiheit“. Politische „Inkorrektheit“ wurde dort zum aggressiv nach außen getragenen Glaubensbekenntnis. Es entstand eine plattformübergreifende Troll-Subkultur, die kreativ neue Aktions- und Kampagnenformen erprobte und verfeinerte.

Methoden

Kennzeichnend für diese Trolling-Strategien ist die Koordination und Supervision von gezielten Aktionen („Raids“) auf kleineren Plattformen wie 4chan oder Discord sowie auf Messenger-Apps, um die Algorithmen der großen Netzwerke wie Facebook, YouTube und Twitter anzugreifen. Es geht darum, die Deutungshoheit über bestimmte Themen zu erlangen (Framing) bzw. eigene Themen im öffentlichen Diskurs zu platzieren (Agendasetting), indem deren Sichtbarkeit manipuliert wird. Solche Aktions- und Angriffsstrategien können sein:

• Shitposting: Massenhaftes Zumüllen von Diskussionen mit aggressiven/ ablenkenden Beiträgen.

• „Memetic warfare“: Gezielte Verwendung von Memes, sei es als eingängiges Bild oder als symbolhaft aufgeladener Begriff („Gäste“, „Goldstücke“ „Rapefugee“).

• das Platzieren, Besetzen und Kapern von Hashtags.

Die Algorithmen der großen sozialen Netzwerke reagieren typischerweise auf Masse. Sie bewerten Posts und Nachrichten, die viel geteilt werden oder mit denen viel interagiert wird, als wichtig und zeigen sie den Nutzer_innen prominent an. Deshalb ist es für die technische Umsetzung von Trollingaktionen wichtig, die eigene Botschaft zu verstärken. Dazu werden große Accounts benötigt, die (vermeintlich) viele Leute erreichen und/ oder ein Heer von kleineren Accounts. Mit diesem Grundwissen ausgestattet, ziehen seit einigen Jahren rechte AktivistInnen von den „Identitären“ bis zur AfD auch in Deutschland in den von ihnen ausgerufenen Informationskrieg.

„Reconquista Germanica“

Als Reconquista Germanica wurde ein Trollnetzwerk bekannt, das sich auf der Plattform Discord organisierte und massiv Propaganda zugunsten der AfD verbreitete. Aus verschiedenen Recherchen ist bekannt, dass sich Reconquista militärisch organisierte, Tagesbefehle an die „Infokrieger“ ausgab, „Meme“-Material zur Verfügung stellte und gezielte Kampagnen durchführte. Sogar ein Theoriepapier zur Schulung der AktivistInnen („Handbuch für Medienguerillas“) wurde im Umfeld der „Reconquista“ verbreitet. Namentlich bekannte Mitglieder des Netzwerks waren der Identitäre Martin Sellner und der AfD-Funktionär Lars Steinke.

Die AktivistInnen nutzten ausgiebig die beschriebenen Techniken und legten massenhaft Fake-Accounts an, die gleichzeitig bespielt wurden. Mit einigen Kampagnen gelang es ihnen nachweislich, einen Trend bestimmter Themen zu bewirken. So brachten sie vor der Bundestagswahl 2017 u.a. die Hashtags #merkelmussweg, #nichtmeinekanzlerin oder #traudichdeutschland in die Top-20 der deutschen „Trending Topics“. Accounts des Netzwerks beteiligten sich gemeinsam mit AfD-Verstärkern unter #KiKaGate massiv an einem Shitstorm gegen den öffentlich-rechtlichen TV-Sender Kinderkanal. Nicht zuletzt unterstützten sie massiv #Kandelistueberall. Der Slogan ist mittlerweile sogar als geschützte Marke im Markenregister eingetragen worden.

Eine Recherche der Tageszeitung Die Welt wies eine ähnlich strukturierte, über „Discord“ betriebene Kampagne im Herbst 2018 nach, die sich gegen den „Globalen Pakt für sichere, geordnete und reguläre Migration“ (UN-Migrationspakt) richtete. Bei dieser Kampagne organisierten sich Sellner mit seinen digitalen „Infokriegern“ und die AfD unter Federführung des Abgeordnetenbüros von Martin Hebner offiziell unabhängig voneinander unter dem Hashtag #Migrationspaktstoppen. Von „Raids“ auf Twitter, YouTube und der Petitionsseite des Bundestags bis zu vorformulierten Briefen an Abgeordnete wurde bei der Kampagne alles genutzt, was sich im Kampf um die Diskurshegemonie instrumentalisieren ließ.

AfD-Parallelstrukturen

Wie man bei der Debatte um den UN-Migrationspakt sehen konnte, betreibt die AfD mittlerweile eine Art steuerfinanziertes Politik-Trolling in den sozialen Netzwerken, wobei sie es nicht nötig hat, sich auf randständigen Plattformen zu koordinieren. Sie kann das im Bundestag tun. Die AfD verfolgt eine plattformübergreifende Strategie mittels Tausender hochaktiver Verstärker. Alle Parteigliederungen und Mandatsträger betreiben Social-Media-Accounts, die für ein ständiges rechtspopulistisches Grundrauschen in den Netzen sorgen. Koordinierte Kampagnen forcieren die Sichtbarkeit ihrer Themen. So manche Parlamentsrede dient nur zur Platzierung eines Hashtags in den sozialen Medien.

Darüber hinaus verfügt die AfD auf Twitter über ein paralleles weit verzweigtes und hochaktives Unterstützungsnetz. Dies ist von besonderer Bedeutung, da der Kurznachrichtendienst eine wichtige Schnittstellenfunktion im gesamten Medienökosystem inne hat. Twitter ist besonders geeignet, die Aufmerksamkeit der journalistischen Gatekeeper_innen und Politiker_innen zu lenken. Dieses Unterstützungsnetzwerk von Hunderten miteinander verknüpften Accounts gruppiert sich um die Accounts @balleryna und @afdwirkt. Es spiegelt und verstärkt AfD-Themen durch künstlich erzeugte Interaktion um ein Vielfaches. Zum Netzwerk gehören skurille Fake-Accounts wie z. B. ein großes Cluster von „Frauenaccouts“, die sich als europäische AfD-Unterstützerinnen ausgeben und Nutzernamen nach dem Muster @Italienerin(nen), @Tschechin(nen) etc. haben. Diese Accounts wirken auf den ersten Blick lächerlich. Sie werden jedoch offenbar koordiniert befüllt und dienen als Verstärkerbasis. Zudem folgen ihnen kleinere offizielle Parteiaccounts und erstaunlich viele Abgeordnete.

Besonders auffällig ist in diesem Netzwerk ein Cluster von Accounts, die vorgeben sich für den Schutz von Kindern zu engagieren (@StopPaedophilia, @FuerOpferschutz, @GegenKinderehen). Bei @StopPaedophilia handelt es sich um einen Account, der sein Twitterleben im Jahr 2011 mit der Suche nach „hot boys“ begann, dann jahrelang Fake-Follower sammelte, bevor er als großer Twitterverstärker im AfD-Universum seine Heimat fand. Zu diesem Cluster gehört auch das @TeamIdaMarie. Der Account startete 2011 mit einem Angebot von Küssen und Sex einer 18-Jährigen und gibt heute vor, die Tochter der AfD-Bundestagsabgeordneten Nicole Höchst zu unterstützen. Die Abgeordnete folgt selbst, ebenso wie die NRW-AfD, dem beschriebenen Trollingnetzwerk und empfiehlt diese „Kinderschützeraccounts“ als ernstzunehmende Referenz.

Damit agitiert neben den offiziellen Strukturen offenbar mit Wissen der Partei ein paralleles Unterstützungsnetzwerk für die AfD, über das erfolgreich Themen und Forderungen in den gesellschaftlichen Diskurs eingespeist werden können. Funktional handelt es sich um ein riesiges latent bereitstehendes Trollingnetzwerk, das bei Bedarf aktiviert werden kann.