#TrollTracker: Wie man russische Trolle entdeckt

Einige Hinweise, die wahrscheinliche Kreml-Konten identifizieren

Seit Russlands Versuch, die amerikanische Gesellschaft zu polarisieren und sich in die Wahlen 2016 einzumischen, aufgedeckt wurde, und vor allem seit der Vergiftung des ehemaligen Spions Sergei Skripal im Vereinigten Königreich, haben sich die Anschuldigungen, ein „russischer Troll“ zu sein, online verbreitet, oft mit den leisesten Beweisen .

Solche Anschuldigungen schaden mehr als sie nützen, verdecken die Art und Weise, wie Trolle wirklich identifiziert werden können, und verstärken die Online-Polarisierung noch weiter.

Im Interesse der Transparenz und einer begründeten Debatte werden in diesem Beitrag einige Faktoren aufgeführt, anhand derer mögliche russische Trolle identifiziert werden können, die sich als Bürger anderer Länder tarnen.

Diese Hinweise sind eher indikativ als schlüssig. Es ist selten möglich, mit hundertprozentiger Sicherheit zu sagen, dass ein bestimmtes Konto zu einer russischen Trolloperation gehört, anstatt nur russische Erzählungen zu unterstützen.

Diese Faktoren ermöglichen jedoch die zuverlässige Anzeige von Pro-Kreml-Konten. Wenn ein Konto die meisten Faktoren teilt, aber behauptet, ein patriotischer Staatsbürger eines anderen Landes zu sein (insbesondere der Vereinigten Staaten und des Vereinigten Königreichs), kann es sich durchaus um ein verdecktes Einflusskonto handeln, wie die Hunderte, die russische Journalisten bei der Arbeit an der St Petersburg "Trollfabrik".

Wie bei jeder Open-Source-Untersuchung ist die Kombination mehrerer Faktoren entscheidend. Ein einziger Indikator reicht selten aus, um die Identifizierung zu bestätigen. Wichtig ist der Ansatz: Ein verdächtiges Konto aus allen Blickwinkeln und über einen möglichst langen Zeitraum hinweg zu bewerten.

Eine kleine Einschränkung: Mit der Zunahme der Vorwürfe des russischen Trolling seit Oktober 2016 haben eine Reihe westlicher Nutzer behauptet, russisch zu sein, um offenbar Gegner "auszulösen" und Forscher zu diskreditieren. Es ist daher wichtig, die gesamte Lebensdauer eines Kontos zu überprüfen und bei neueren Posts Vorsicht walten zu lassen.

Partisan ist nicht genug

Bevor die Faktoren untersucht werden, die zuverlässig auf einen Pro-Kreml-Troll hinweisen, ist es wichtig, einen Faktor zu untersuchen, der dies nicht tut. Das ist hyperparteilicher Inhalt.

Die Informationsoperation Russlands gegen Amerika zwischen 2014 und 2017 umfasste eine große Anzahl von Berichten, die sich auf beiden Seiten als überparteiliche Amerikaner ausgaben, insbesondere die #TakeAKnee-Kontroverse.

Links ein Beitrag des russischen Trollkontos „PanAfricanRootsMove“. Rechts ein Beitrag des russischen Trollkontos „MericanFury“. Beide Bilder dank des von UsHadrons auf Medium erstellten Repositorys. (Quelle: Facebook)

Infolgedessen wurde die bereits hitzige Atmosphäre der politischen Online-Debatten durch die gegenseitigen Anschuldigungen, „russische Trolle“ (oder sogar „russische Bots“) zu sein, weiter belastet.

Überparteiliche Inhalte allein reichen jedoch nie aus, um einen Account als pro-kremlisch oder russisch zu qualifizieren. Es werden immer mehr Beweise benötigt.

A oder das?

Eines der sprachlichen Merkmale, die für viele bekannte russische Berichte charakteristisch sind, ist die Unfähigkeit, die grammatikalischen Artikel "a" und "the" angemessen zu verwenden. Die russische Sprache hat keine.

Dieser Beitrag wurde zum Beispiel vom russischen Troll Instagram-Account Muslim_Voice im Mai 2016 erstellt. Beachten Sie die Sätze "Ich möchte nicht, dass meine Kinder mit diesem Schild auf der Straße gehen" und "Islam- und Fremdenfeindlichkeit beenden".

Beitrag von @Muslim_Voice, wiederhergestellt von @UsHadrons. (Quelle: Instagram / Muslim_Voice)

Der russische Twitter-Troll @USA_Gunslinger hat anscheinend den gleichen Fehler in diesem Beitrag begangen und behauptet, dass Hillary Clinton niemals „eine Ehre“ haben wird. Im britischen Englisch ist eine „Ehre“ eine Auszeichnung der Königin, dies ist jedoch unwahrscheinlich Kontext des US-Kontos; es scheint zu bedeuten, dass Clinton niemals Ehre haben wird.

Tweet von @USA_Gunslinger, wiederhergestellt von @UsHadrons. (Quelle: Twitter / USA_Gunslinger)

Bestätigte russische Twitter-Trolle haben in ihren Posts viele ähnliche Fehler gemacht, wie aus einem Repository von über 200.000 Posts hervorgeht, die von NBC News wiederhergestellt wurden.

„Wir müssen den Terrorismus bekämpfen, um den Terrorismus zu bekämpfen! Aber keine Anrufe verfolgen, um den Terrorismus zu bekämpfen. “- @michellearry, Juni 2015.
„Ich möchte, dass das Chaos vorbei ist! Wir brauchen den #GOP-Präsidenten, um das zu stoppen! #GOPDebateSC ”- @heyits_toby, Januar 2016.
„Mit Hillary wird Amerika in Flammen aufgehen. Also lass das nicht zu! "- @tpartynews, Februar 2016

Diese sprachliche Anzeige ist einer der häufigsten Indikatoren für einen Russisch sprechenden Menschen (obwohl auch in anderen Sprachen, einschließlich Polnisch und Lettisch, der bestimmte Artikel fehlt). Es ist üblich, dass es von jenen gefälscht werden kann, die sich als russische Trolle tarnen möchten, um Forscher zu täuschen und zu diskreditieren. Ein Bericht, der sich als englischer Sprecher ausgibt, aber immer den gleichen Fehler macht, sollte weiter untersucht werden.

Was ist die Frage?

Ein weiterer häufiger linguistischer Indikator ist die Unfähigkeit, eine Frage zu formulieren. Im Russischen ändert sich die Wortreihenfolge für Fragen nicht wie im Englischen, Deutschen und Französischen. Viele bekannte russische Trollkonten haben Fragen gestellt, bei denen die Reihenfolge der Aussagen eingehalten wurde.

Beitrag vom russischen Troll Instagram-Konto Anonymous_News; Beachten Sie die gestörte Wortreihenfolge in der Frage und die Hinzufügung weiterer hoch aufgeladener Begriffe im Text wie „NoDAPL“ (ein Verweis auf die umstrittene Dakota Access Pipeline), „Policebrutality“ und „amerikkka“ (ein Verweis auf die Ku Klux Klan. Bild von @UsHadrons wiederhergestellt. (Quelle: Instagram / Anonymous_News)

Wiederum haben andere bestätigte russische Twitter-Trolle den gleichen Fehler gemacht, wie diese Beispiele aus dem NBC News-Archiv zeigen:

"Warum schickt uns unsere Regierung keine Hilfe ?! Phosphorleck in Pocatello #phosphorusdisaster ”- @ ryanmaxwell_1, 10. März 2015.
„Warum brauche ich eine Kreditkarte? Wofür denkst du dieses Geld? ”- @logan_whatsup, Februar 2015.

Der gleiche Fehler taucht auch in diesem YouTube-Video auf, das Teil eines Maßnahmenpakets ist, das die russische Trolloperation im September 2014 zusammengestellt hat, um ein fiktives chemisches Leck in den USA zu vermuten. Der kurze Clip bestand aus einem unsichtbaren Mann mit einem unklaren Akzent, der einen Fernsehbildschirm anschrie, auf dem ISIS die Verantwortung für die Explosion übernehmen soll. Sein Versuch ist nicht ganz englisch:

"Jetzt frage ich mich, was guckst du, Jungs?"

(Der Satz kommt um 00:16 Uhr.)

Auch hier sollte ein angeblich englischsprachiger Bericht, der diesen Fehler begeht, mit Skepsis betrachtet werden.

Suche nach narrativen Hinweisen

Es gibt natürlich einen Unterschied zwischen einem russischen Konto und einem Pro-Kreml-Konto. Sprachliche Verräter reichen daher im Allgemeinen nicht aus, um den Troll zu entlarven.

Vielmehr sollten die sprachlichen Hinweise mit narrativen kombiniert werden. Die russische Regierung hat eine unverwechselbare Darstellung der wichtigsten geopolitischen Ereignisse der letzten fünf Jahre entwickelt. Diese Veranstaltungen erstrecken sich über verschiedene Länder und Kontinente und sind zeitlich getrennt.

Ein Konto, über das die russische Regierung wiederholt über die meisten oder alle diese Ereignisse spricht, kann zu Recht als kremlfreundlich betrachtet werden. Der nächste Schritt bei der Identifizierung eines Pro-Kremlin-Kontos besteht daher darin, die Zeitleiste nach diesen narrativen Verräterischen zu durchsuchen.

Wenn Sie beispielsweise nach Originalbeiträgen suchen möchten, in denen die Krim in einem berüchtigten Trollkonto wie @TEN_GOP erwähnt wird, lautet die Formel auf Twitter:

von: TEN_GOP Krim

Um nach Beiträgen zu suchen, in denen der Ausdruck "Ukrainischer Nazi-Putsch" aus @TEN_GOP vorkommt, lautet die Formel auf Twitter:

von: TEN_GOP "Ukrainischer Nazi-Putsch"

Um nach Beiträgen von @TEN_GOP zu suchen, in denen das Wort "Krim" zwischen dem 28. Februar und dem 18. März 2014 erwähnt wurde - eine der Zeiten, in denen die Kreml-Propagandamaschine als Ganzes eine nachhaltige Desinformationskampagne startete, um den russischen Angriff auf die Ukraine zu rechtfertigen - lautet die Formel:

von: TEN_GOP Krim seit: 2014–02–28 bis: 2014–03–18

Diese Suchanfragen geben keine Retweets zurück, sondern nur Original-Tweets: Als solche geben sie einen Hinweis darauf, was der Account selbst gepostet hat, aber nicht sein gesamtes Verhaltensmuster. Diese Suchmethode gibt nur aktive Konten zurück, daher ist @TEN_GOP nur ein Beispiel, da es von Twitter Public Policy entfernt wurde.

Zu den wichtigsten Momenten und Themen, nach denen gesucht werden muss, gehören:

  • Die russische Annexion der Krim vom 28. Februar bis 18. März 2014 und insbesondere die Erzählung, dass die Ukraine der Angreifer oder ein Nazistaat war;
  • Abschuss des Fluges MH17 von Malaysian Airlines am 17. Juli 2014 und anschließende Ermittlungen, aus denen hervorgeht, dass Russland die tödliche Rakete zur Verfügung gestellt hat;
  • Die heftigen Kämpfe in der Ukraine von Januar bis Februar 2015 und der Einsatz russischer Panzerverstärkungen, wie im Bericht des Atlantischen Rates „Verstecken in Sichtweite“ dargelegt;
  • Ermordung des Oppositionsführers Boris Nemtsov, 27. Februar 2015;
  • Abschuss einer russischen Su-24 durch die Türkei am 24. November 2015;
  • Die Belagerung von Aleppo, Dezember 2016;
  • Im weiteren syrischen Kontext die White Helmets-Rettungsgruppe und das syrische Mädchen Bana Alabed;
  • Der Sarin-Angriff auf Khan Sheikhoun im April 2017 und der daraus resultierende US-Raketenangriff.

Bei der Beurteilung eines potenziellen Trollkontos ist es wichtig zu prüfen, ob und was zu all diesen Themen veröffentlicht wurde. Ein Konto, das auf der Mehrheit von ihnen veröffentlicht wurde und die Erzählungen des Kremls teilt, kann mit Sicherheit als Pro-Kreml-Konto eingestuft werden.

Wenn das Konto die meisten oder alle der Kreml-Erzählungen teilt, die charakteristischen sprachlichen Fehler macht und sich als amerikanischer oder britischer Benutzer ausgibt, kann es sich um einen russisch operierten Troll handeln.

Krim und MH17, 2014 und danach

Die russische Regierungspropaganda konzentrierte sich besonders stark auf die Annexion der Krim und den Abschuss von MH17 im Jahr 2014. Eine Reihe von Themen kennzeichnen die Kremlpropaganda dieser Zeit und deuten zuverlässig auf kremlfreundliche Trolle hin.

Zum Beispiel strahlten russische Regierungsstellen immer wieder Behauptungen aus, MH17 sei von der Ukraine oder der CIA gestürzt worden, obwohl nachweislich eine in Russland hergestellte und aus Russland hergestellte Buk-M1-Rakete das Flugzeug abgeschossen hatte.

Posts über MH17 von RT. (Quelle: Twitter / RT_com)

Später sendeten Nachrichten Angriffe auf das Joint Investigation Team (JIT), eine multinationale Gruppe, die zu dem Schluss kam, dass MH17 tatsächlich mit einer russischen Rakete abgeschossen wurde.

RT-Stellen im Joint Investigation Team. (Quelle: Twitter / RT_com)

Sie richteten sich auch gegen das Bellingcat-Team von investigativen Journalisten, die einen Großteil der Open-Source-Beweise rund um den Absturz sammelten.

RT post auf Bellingcat. @DFRLab hat gezeigt, dass es sich bei der Gruppe der „Bürgerjournalisten“, auf die sich der Artikel bezieht, tatsächlich um eine Gruppe von Kreml-Mitarbeitern handelt. (Quelle: Twitter / RT_com)

Andere wichtige Behauptungen waren, dass die russische Annexion der Krim das Ergebnis eines „Putsches“ in Kiew war; dass die ukrainische Regierung von Neonazis und Faschisten dominiert wird; und dass die russischen Spezialeinheiten, die von Februar bis März 2014 die Krim besetzten, "lokale Selbstverteidigungskräfte" waren.

RT-Posten in der ukrainischen „Putschregierung“, den „Selbstverteidigungstrupps“ und der „faschistischen“ Ukraine. (Quelle: Twitter / RT_com)

In jedem dieser Fälle haben die Behauptungen des Kremls die Beweisprüfung nicht bestanden. Die russischen Spezialeinheiten wurden bereits am 2. März 2014 als solche entlarvt; Die GEG gelangte zu dem Schluss, dass das Raketensystem Buk-M1, das MH17 abgeschossen hatte, aus Russland in die Ukraine gelangte und dorthin zurückkehrte. Die rechtsextremen Kräfte machten nie mehr als einen Bruchteil des ukrainischen Parlaments aus, viel kleiner als die rechtsextremen Gruppen, die von Russland in Ländern wie Frankreich unterstützt wurden.

@Jenn_Abrams, einer der einflussreichsten Berichte der russischen Operation, scheint die Ukrainer auch als "Wilde" angegriffen zu haben, um anhand dieser Antwort auf einen gelöschten Beitrag zu urteilen.

(Quelle: Twitter / clochette31000)

Konten, auf denen solche Forderungen regelmäßig verbucht werden, gelten als kremlfreundlich. Es wäre ein zu großer Schritt, allein auf der Grundlage solcher Stellen den Schluss zu ziehen, dass sie Teil einer Operation der russischen Regierung sind. Weitere Beweise wären erforderlich, um diesen Punkt zu belegen.

Ukraine-Schlachten, 2015

Viele der bekannten russischen Trollkonten widmeten der Ukraine im Januar 2015 besondere Aufmerksamkeit, als russische Panzereinheiten aus dem russischen Fernen Osten in den Konflikt eintraten.

Unter den Hashtags #SomeoneWhoKillsCillren und #WorldWakeUpUkraineKillsItself haben beispielsweise Trolle des Kremls den ukrainischen Staat und insbesondere den ukrainischen Präsidenten Petro Poroshenko angegriffen.

Tweets zur Ukraine wurden von angeblich amerikanischen Konten veröffentlicht, die von der russischen Informationsoperation im Januar 2015 geführt wurden. (Quelle: NBC News)

Dies waren hauptsächlich russischsprachige Kampagnen; Die Suche nach den Hashtags ergab eine Reihe von noch erhaltenen Pro-Kreml-Berichten in russischer Sprache aus dieser Zeit.

Post von @SplashNm auf dem Troll-Hashtag. Archiviert am 28. Februar 2018. (Quelle: Twitter / @SplashNm)

Berichte, die in den ersten beiden Monaten des Jahres 2015 einen plötzlichen Fokus auf die Ukraine im Allgemeinen und auf Poroschenko (oft als „Porky“ verspottet) im Besonderen zeigten, passen daher zum Muster bekannter russischer Trolle.

Ermordung von Nemtsov

Die Ermordung von Boris Nemtsov war ein besonders wichtiger Moment in der Erforschung kremlfreundlicher Informationsoperationen, da wir von internen und externen Quellen die Bestätigung erhalten, dass die „Trollfarm“ in St. Petersburg angewiesen wurde, das Ereignis als Notfall zu behandeln. und massiv drauf posten.

Die interne Bestätigung stammt von dem russischen Journalisten Andrei Soshnikov, der Anfang 2015 eine Liste der Bestellungen für die Trollfarm veröffentlicht hat:

Als Nemtsov getötet wurde, änderte sich die Arbeit der Kremlroboter: Sie hörten auf, in die Ukraine zu strömen (dies ist ihre alltägliche Routine) und wurden in den Mord verlegt ... Sie sagten dasselbe mit anderen Worten: Der Mord ist eine Provokation, der Kreml Hat das nichts damit zu tun, tötete die Opposition ihren eigenen Mann, um mehr Menschen für den Marsch zu gewinnen.

Die externe Bestätigung stammt von dem britischen Forscher Lawrence Alexander, der ein Netzwerk von Tausenden von Twitter-Bots aufdeckte, nachdem sie plötzlich begonnen hatten, über Nemtsov zu posten.

Bild von Lawrence Alexander von miteinander verbundenen Botnetzen, die im Rahmen seiner Untersuchung automatisierter Posts über Nemtsov aufgedeckt wurden. (Quelle: Global Voices / Lawrence Alexander)

Jede unabhängige Quelle bestätigte, dass der Mord an Nemtsov eine große Operation auf einer Trollfarm auslöste. Berichte, die Angriffe auf Nemtsov verzeichneten oder in den Tagen unmittelbar nach dem 27. Februar 2015 eine Reihe widersprüchlicher Theorien über seinen Tod enthielten, sollten daher eingehend untersucht werden.

Su-24 Downing, 2015

Am 24. November 2015 hat die Türkei einen russischen Kampfjet an der Grenze abgeschossen. In der Folge starteten russische Staatsunternehmen eine groß angelegte Kampagne gegen die Türkei und ihren Präsidenten Recep Tayyip Erdoğan.

Die Kampagne umfasste eine Reihe von ineinandergreifenden Themen. Zum einen war das Verhalten der Türkei rücksichtslos; eine andere war, dass es vorgeplant war.

RT-Posten nach dem Absturz. (Quelle: Twitter / RT)

Ein dritter Punkt war, dass die Türkei die Terroristengruppe ISIS befähigte und davon profitierte, indem sie als illegaler Ölexporteur aus Syrien handelte.

Ein weiterer Grund war, dass sich die Türkei des Völkermords an den Kurden schuldig gemacht hatte. RTs Behandlung des Problems war so einseitig, dass es zwei Interviews gab, die vom britischen Telekommunikationsaufsichtsbehörden wegen Verstoßes gegen grundlegende Unparteilichkeitsregeln für schuldig befunden wurden, die Standards des Rundfunkjournalismus durchsetzen.

RT startete sogar einen Hashtag, #JusticeforKurds, der eine Untersuchung der Vereinten Nationen über mutmaßliche Massenmorde an Kurden durch die Türkei forderte.

Damals wurden natürlich internationale Fragen zur Behandlung der Kurden durch die Türkei und zu ihren Beziehungen zum IS aufgeworfen. Ihre Erwähnung allein reicht daher nicht aus, um einen Account als Pro-Kreml-Account zu qualifizieren.

Das Posten solcher Themen unmittelbar nach dem Abschuss der Türkei und insbesondere das Teilen von Posts von RT und Sputnik können jedoch ein Indikator für ein potenziell kremlfreundliches Konto sein, wenn sie mit anderen Faktoren in Bezug gesetzt werden.

Aleppo, 2016

Bei der Belagerung von Aleppo im Dezember 2016 wurden zahlreiche Gräueltaten und Angriffe auf Zivilisten von allen Seiten, einschließlich Russland, verübt. Zum Beispiel enthüllte die Kreml-Propaganda-Station RT aus Versehen, dass russische Flugzeuge wahllose Streumunition über der Stadt einsetzten. @DFRLab und Partner haben solche Gräueltaten in "Breaking Aleppo" aufgezeichnet.

Die russische Propagandaoperation versuchte auf verschiedene Weise, zurückzudrängen, unter anderem durch die Behauptung, die Belagerung von Aleppo sei eine "Befreiung". Russische Trollkonten unterstützten dies durch wiederholtes Twittern von Posts anderer Benutzer, was die Erzählung verstärkte.

In den folgenden Beispielen wurden die ursprünglichen Tweets von unabhängigen Benutzern gepostet, aber dann von bestätigten russischen Trollkonten erneut getwittert, wie aus dem NBC-Archiv hervorgeht. Wir haben sie hier aufgenommen, um die erzählerischen Themen zu veranschaulichen, für die die Trollfarm geworben hat.

(Quelle: Twitter / Maytham956)

Troll account @judelambertusa hat den folgenden Beitrag retweetet.

(Quelle: Twitter / @VanessaBeeley)

Die Nachrichten der russischen Regierung konzentrierten sich insbesondere auf die Rettungsgruppe der Weißen Helme, eine der Hauptbeweisquellen für Kriegsverbrechen, die im Syrienkonflikt begangen wurden.

Ein weiterer bestätigter russischer Troll-Account, @LauraBaeley, hat diesen Beitrag retweetet. Der Tweet stammte von der Website 21st Century Wire, teilte jedoch ein RT-Programm, in dem drei lautstarke Kritiker der White Helmets auftraten, und schlug vor, dass die Retter "ein ausgeklügelter und zynischer PR-Stunt für den illegalen Regimewechsel in Syrien" seien.

(Quelle: Twitter / @ 21stcenturywire)

Bekannte Berichte aus dem Kreml richteten sich auch gegen Bana Alabed, ein junges Mädchen, das über das tägliche Leben in Aleppo unter Belagerung twitterte und die Öffentlichkeit auf das Leiden der Zivilbevölkerung aufmerksam machte.

Sputnik twittert über Bana. (Quelle: Twitter / @SputnikInt)

Es ist wichtig anzumerken, dass die Propaganda der syrischen Regierung auch auf diese Themen abzielte. Das Vorhandensein solcher Stellen reicht daher ohne weitere Beweise nicht aus, um zu beweisen, ob ein Konto für den Kreml ist. Wenn jedoch andere Indikatoren vorliegen, liefert das Vorhandensein von Stellen auf Aleppo einen wertvollen Querverweis.

Sarin, April 2017

Der Sarin-Angriff auf Zivilisten in Khan Sheikhoun, Syrien, am 4. April 2017 und der Vergeltungsschlag gegen US-Raketen am 7. April waren ein weiterer Auslöser für die Trollfarm. Eine Reihe bekannter russischer Trolle reagierte auf den Streik in den USA und forderte Präsident Trump auf, seinen Schwiegersohn Jared Kushner zu feuern, der als die treibende Kraft hinter dem Streik galt.

Beitrag des russischen Trolls @TEN_GOP nach dem Streik in den USA. Von @UsHadrons wiederhergestellt. (Quelle: Twitter / @TEN_GOP)

Der russische Troll @baobaeham hat einen wütenden Post retweetet, in dem der Sarin-Angriff als "falsche CIA-Flagge" bezeichnet wird. Eine UN-Untersuchung führte ihn sogar auf das Regime von Bashar Al-Assad zurück, dem Verbündeten Russlands.

Beitrag retweetet von Russian troll @baobaeham. (Quelle: Twitter / @Fixer_Guy)

Dies war eine Gelegenheit, bei der russische Trolle Angriffe auf Trump verstärkten, anstatt ihn zu verteidigen, wie dieser Beitrag, der von dem bestätigten russischen Troll @mrclydepratt retweetet wurde.

(Quelle: Twitter / AfroStateOfMind)

Wie bei den Posts auf Aleppo sind Posts wie diese nicht für sich allein diagnostisch: Viele echte Mitglieder von Trumps Unterstützungsbasis haben sich nach dem Luftangriff gegen ihn gewandt. In Kombination mit anderen Beweisen können sie jedoch das Bild der Aktivität eines Kontos verstärken.

Fallstudie: Ein wahrscheinlicher Troll

Im Dezember identifizierte @DFRLab einen wahrscheinlichen russischen Troll-Account, @IamJohnSmith, der sich gegen den britischen Abgeordneten Tom Brake richtete. Das Konto wurde gesperrt. Wir überprüfen die Identifizierung hier als Fallstudie in der Kombination von Beweisen, die den Troll aufdecken können.

Der Bericht wurde @ DFRLab aufgefallen, nachdem Brake auf einen von ihm geposteten Tweet abzielte und sagte, Russland habe eine „Vorgeschichte“ von Wahlstörungen.

Der Beitrag von Tom Brake MP und die Antwort von @iamjohnsmith, der mit ziemlicher Sicherheit nicht John Smith ist. Archiviert am 20. Dezember 2017. (Quelle: Twitter)

Der Account soll englisch sein und seinen Sitz in London haben. Es war praktisch anonym und in seinen Tweets produktiv, beides Indikatoren für einen potenziellen professionellen Troll. Es wurde im März 2017 erstellt und war bis zum Jahresende rund 11.000 Mal oder rund 37 Mal am Tag verfügbar.

@ iamjohnsmiths Profilseite. Archiviert am 20. Dezember 2017. (Quelle: Twitter / @iamjohnsmith)

Obwohl es sich um eine Neuerscheinung handelte, wurde in dem Bericht über einige der bekannten Kreml-Themen berichtet, insbesondere über die Erzählung „Nazis in der Ukraine“, Angriffe auf Bellingcat und die Theorie der „Sarin-falschen Flagge“.

Tweets von @iamjohnsmith zu Ukraine, Bellingcat und sarin. Tweets archiviert am 20. Dezember 2017. (Quelle für Beiträge: Twitter / @iamjohnsmith)

Es wurden wiederholt Artikel von RT zu verschiedenen Themen veröffentlicht.

Teile von RT-Geschichten von @iamjohnsmith über Syrien (rechts und links) und die EU. Beachten Sie die Uhrzeit der rechten Post, 3.43 Uhr UTC. Dies ist eine ungewöhnliche Zeit, zu der ein britischer Benutzer online ist. Tweets archiviert am 20. Dezember 2017. (Quelle für Beiträge: Twitter / @iamjohnsmith)

Das Konto interagierte auch wiederholt mit bestätigten russischen Trollkonten @TEN_GOP und @ Pamela_Moore13.

@ iamjohnsmith markiert @TEN_GOP (links) und @ Pamela_Moore13 (rechts). Quelle: Twitter-Suche, archiviert am 20. Dezember 2017. (Quelle: Twitter / @iamjohnsmith)

Für sich genommen würde keiner dieser Punkte zur Identifizierung ausreichen. Aufgrund all dieser und anderer Erkenntnisse gelangten wir jedoch zu dem Schluss, dass @IamJohnSmith wahrscheinlich ein russischer Troll ist, der sich als englischer Account tarnt, und nicht nur ein Pro-Kreml-Account.

Fazit

Diese Faktoren können verwendet werden, um die Wahrscheinlichkeit anzuzeigen, dass es sich bei einem bestimmten Konto um einen Pro-Kreml-Troll oder einen von Russland betriebenen handelt. Sie sind am nützlichsten bei älteren Konten, aber auch bei relativ neuen Konten wie @IamJohnSmith können sie nützliche Hinweise liefern.

Die Liste ist nicht vollständig. Die Informationsmaßnahmen des Kremls haben sich in den letzten Jahren auf viele Themen konzentriert. Die oben genannten sind nur die häufigsten, die wir beobachtet haben. Die Liste sollte auch nicht als garantierter Weg angesehen werden, russische Trolle zu finden. Es gibt eher eine Wahrscheinlichkeit als eine Gewissheit an. Einige Konten, die zu allen oben genannten Themen gepostet werden, sind möglicherweise echte Benutzer. Einige bekannte russische Trolle haben relativ wenig über diese Themen geschrieben.

Die Liste bietet jedoch eine Methode zur Identifizierung möglicher Trolle und kann (wie im Fall von @IamJohnSmith gezeigt) zur Aufdeckung dieser Trolle verwendet werden. In solchen Studien ist der Ansatz wichtig: Beurteilung mehrerer Aspekte der Aktivität eines Kontos, bevor eine Schlussfolgerung gezogen wird.

Angesichts der Brisanz der Online-Debatte der „Russischen Trolle“ ist es wichtig, systematisch und transparent mit den Beweisen umzugehen. Die oben beschriebene Methode dient dazu.

Ben Nimmo ist Senior Fellow für Informationsverteidigung am Digital Forensic Research Lab (@DFRLab) des Atlantic Council.

Folgen Sie uns für eine eingehendere Analyse unserer #DigitalSherlocks.