Wie man künstliche Intelligenz befähigt, rassistische Trolle zu bekämpfen

Social Media ist mit giftigen Trollen überfordert und die Menschen halten sie nicht in Schach. Es ist Zeit, dass AI ihnen hilft.

Weiße Supremacisten marschieren mit Fackeln durch den UVA-Campus in Charlottesville, VA - Freitag, 11. August 2017 (Mykal McEldowney / The Indianapolis Star via AP)

Viele, die auf einem mathematischen Gebiet arbeiten, haben ein ähnliches Laster. Wir wollen alles quantifizieren, besonders wenn der Quantifizierungsprozess äußerst kompliziert und unvollkommen sein wird. Tatsächlich ist der Schwierigkeitsgrad die Hauptattraktion, da er uns dazu zwingt, darüber nachzudenken, was genau das ist, was wir zu quantifizieren versuchen, und wie wir es objektiv definieren und in der realen Welt messen können. Und wenn es um die Quantifizierung der Bigotterie geht, die in den sozialen Medien explodiert, ist dies kein abstraktes Problem für Neugierige. Da soziale Netzwerke zu einem globalen Phänomen mit Milliarden von Nutzern geworden sind, kann die menschliche Mäßigung nicht mit der Explosion von Inhalten mithalten, die zusätzlich zur Zahl der Menschen noch an Bedeutung gewinnen, und die Unternehmen, die sie aufgebaut haben, vor große Probleme in Bezug auf Geschäft und Öffentlichkeitsarbeit stellen.

Fragen Sie einfach Twitter. Nach Jahren der Blutung von Bargeld suchte das Unternehmen nach einem Käufer, der daran interessiert war, seine Benutzer für seine eigenen Geräte zu monetarisieren und bereit war, die Verluste für eine Flut neuer Verkäufe auszugleichen. Trotz einiger Interesse und einiger Angebote gingen die Deals aus einem einfachen Grund nirgendwo hin: dem Trollproblem von Twitter. Als sich das Problem auf Facebook ausbreitete und Abschnitte von Nachrichten und Blogs kommentierte, versuchte Google, mit seinem Know-how der künstlichen Intelligenz Bigotterie zu kennzeichnen, aber als es gegen den tatsächlichen Hass eingesetzt wurde, kam sein System in vielen Punkten zu kurz, da es auf Keywords und angewiesen war die Sequenzen, in denen sie verwendet werden müssen, um zu wissen, wie giftig sie sind. Es ist das Grundprinzip, nach dem neuronale Netze aufgebaut werden, die für solche Probleme verwendet werden, und sie sind eher begrenzt.

Nehmen wir zum Beispiel an, jemand postet einen Kommentar mit dem Titel "Alle Schwarzen sind Schläger", der offensichtlich höllisch rassistisch ist. Googles neuronales Netz lernte durch die Analyse über Phrasen, die Bögen wie diese und ihre beabsichtigten Ziele enthalten, immer wieder, bis es darin versank, dass die Schlüsselwörter "Schwarz", "Menschen" und "Schläger" in enger verbaler und logischer Nähe zueinander stehen. sagen 90% giftig. Bisher funktioniert das System, aber lassen Sie uns die Komplexitätsgrenze höher setzen. Betrachten wir einen weiteren hypothetischen Beitrag, in dem es heißt, "Schwarze sollten nur Basketball spielen", der definitiv eine rassistische Konnotation hat, aber keine Unschärfen und offensichtlichen Negative enthält, auf die das System reagieren kann.

In einer Kombination aus "Schwarz", "Menschen" und "Basketball" sieht es nichts Falsches, aber das Zitat besagt offensichtlich, dass Schwarze nur Sportler sein sollten, was impliziert, dass andere Karrieren außerhalb der Grenzen liegen und nicht nur irgendwelche Sportler, sondern in einer für sie bestimmten Sportart. Auf der Toxizitätsskala sind es solide 90% oder mehr, aber der Algorithmus sieht abgesehen vom Wort "nur" wenig als verdächtig an und kennzeichnet es als höchstens 60% giftig. Das bloße Betrachten von Wortfolgen und deren logischen Abständen in der Phrase hat einige Probleme als zuverlässige Methode für einen Bigotteriedetektor. Aber wie genau beheben wir diese offensichtlichen Mängel?

Das Problem mit Hundepfeifen

Um das zu versuchen und zu beantworten, müssen wir einen Schritt zurückgehen und zuerst über Bigotterie sprechen, nicht als Algorithmus, sondern als soziale Einheit. Wer genau sind Bigots und was bringt sie zum Ticken? Nicht aufgrund der Wörterbuchdefinition, die man in einem stark gepolsterten College-Aufsatz erwarten würde, sondern aufgrund praktischer, realer Manifestationen, die sie schnell hervorheben. Sie benutzen nicht nur Bögen oder schlagen liberale oder egalitäre Ideen nieder, indem sie sie als abscheulich bezeichnen oder mit einer schrecklichen Krankheit vergleichen, was bedeutet, dass die fraglichen Bigots schnell erkennen, wie sie herausgefiltert werden und subtiler werden oder verwirrende Begriffe, vielleicht sogar wie ein Spiel behandeln.

Beachten Sie nur, wie der Google-Algorithmus in die Irre geht, wenn Anführungszeichen auf "invektiv", aber auf "bigott" gesetzt werden, und was in Journalistenkreisen als "Hundepfeifen" bezeichnet wird. Sarkasmus fügt ein weiteres Problem hinzu. Wie könnten Sie anhand eines Kommentars wissen, dass die Person nicht nur einen Fanatiker verspottet, indem sie vorgibt, sie zu sein, oder umgekehrt, wenn sie diejenigen verspottet, die seine bigotten Äußerungen ausrufen? Die offensichtliche Antwort ist, dass wir jedes Mal, wenn wir einen Kommentar bewerten, einen Kontext benötigen, da zwei der Hauptmerkmale der Bigotterie Aufrichtigkeit und eine selbstverteidigende Haltung sind. Einfach ausgedrückt, Bigots sagen bigotte Dinge, weil sie ihnen wirklich glauben, und sie hassen es, dafür als Bigots bezeichnet zu werden.

Nur Soziopathen und Psychopathen können sich als böse ansehen, normale Menschen sehen sich nicht als Bösewichte oder möchten, dass andere sie als solche betrachten. Selbst wenn sie schreckliche Dinge sagen und tun, die wir in Zukunft als Vorsichtsmassnahmen verwenden werden, gehen sie davon aus, dass sie entweder für das eintreten, von dem sie wissen, dass es richtig ist, oder nur ihre Arbeit tun. Selbst wenn sie mit unwiderlegbaren Beweisen für ihre Bigotterie, ihren Sexismus oder ihre bösen Taten konfrontiert würden, würden sie so weit gehen zu sagen, dass sie dazu getrieben wurden, weil sie so oft kritisiert wurden, als ob „ich nur angefangen hätte, ethnische Beleidigungen zu benutzen und zu fordern Massendeportationen, weil Sie mich als Rassisten bezeichnet haben “, ist eine legitime Verteidigung.

Es handelt sich um ein Phänomen, das in der berühmten Holocaust-Abhandlung Die Banalität des Bösen untersucht wurde. Was wir auf nationaler und globaler Ebene als böse ansehen, lässt sich nicht durch Gier, Eifersucht oder sogar religiösen Fundamentalismus erklären, sondern durch ein Klima, in dem alle mitmachen ist ein Zahnrad in einer Maschine, dessen erklärtes Ziel eine nebulöse „Größe“ ist. Nein, das ist nicht, eine direkte Parallele zwischen Trumpismus und Nationalsozialismus zu ziehen, weil sie grundsätzlich gegensätzliche Ziele haben. Letzteres basierte auf ethnischer Säuberung und globaler Dominanz, ersteres basiert auf Isolationismus und scheint mit kultureller Homogenität und erzwungener Assimilation einverstanden zu sein. Aber diejenigen, die von Trumpism aufgenommen wurden, möchten wirklich nicht daran erinnert werden, dass dies immer noch Bigotterie ist.

Tatsächlich war die übliche Botschaft an den Technologie-Geschäftsmann Sam Altman auf seiner Interview-Tour durch Trumps Amerika, dass sie es verabscheuen, Bigots, böse Menschen oder Fremdenfeinde zu sein, und davor warnen, sich näher an Trump zu halten, wenn sie weiterhin als solche bezeichnet werden. Ich bezweifle nicht, dass sie glauben, sie seien bigott oder fremdenfeindlich, aber es ist schwer, ihr Wort dafür zu fassen, wenn ein Strom von Beschimpfungen über Einwanderer, die die Kultur zerstören, Verbrechen und Krankheiten mit sich bringen und Minderheiten als solche bezeichnen, auftaucht Geld in der Regierung zu verdienen, während „echte Amerikaner“ wie sie nur von „unamerikanischen“ Politikern auf der Strecke gelassen werden.

Social Scores und Shadow Ban-Lösungen

Es ist die klassische Regel, dass jede Aussage, die mit "Ich bin nicht rassistisch, aber" beginnt, fast immer bigott ist, weil die Konjunktion ziemlich viel verlangt, dass etwas nicht genau aufgeschlossen gesagt wird, damit das, was gesagt wird, Sinn ergibt . Es ist sehr wahrscheinlich, dass der oben genannte Algorithmus damit beginnt, seine Toxizitätsbewertung für das Argument zu erhöhen: Er erkennt ein Muster, das eine rote Fahne auslöst, dass etwas sehr, sehr Negatives auftaucht, weil er in seinem Training genügend Beispiele gesehen hat einstellen.

Und dies ist letztendlich das, was eine erfolgreiche KI mit Bigotterie-Flaggen braucht: Muster und Kontext. Anstatt nur zu schauen, was gesagt wurde, muss es wissen, wer es gesagt hat. Löst diese Person den Bigot-Sensor häufig aus und drückt ihn in den Bereich von 55% bis 65% und darüber? Eskaliert diese Person, wenn sie von anderen angerufen wird, und löst den Sensor noch mehr aus? Wie hoch ist die soziale Punktzahl dieser Person, die sich aus dem Feedback anderer Benutzer in ihren Antworten, Abstimmungen und Likes ergibt?

Ja, der soziale Score kann brigadiert werden, aber es gibt verräterische Anzeichen, die verwendet werden können, um Likes und Votes zu disqualifizieren, Anzeichen wie eine große Anzahl von Personen von Sites, die für bestimmte Vorurteile bekannt sind, die sich auf eine bestimmte Weise einbringen, Korrelationen zwischen einigen von Diese Websites veröffentlichen und ein Ansturm von Benutzern, die stark in eine Richtung verzerrt sind, und eine Flut von Kommentaren, die den Sensor auslösen. Dies sind also gut verstandene Probleme, die bereits behoben werden können. Wir sollten auch verfolgen, woher die Benutzer im Web kommen. Kommen sie von Orten, die von Bigots bevorzugt und frequentiert werden, um Dinge zu posten, die den Sensor auslösen? Das ist auch eine potenzielle rote Fahne.

Ein Ablauf, der nachverfolgt, woher der Benutzer kam, wie er mit seiner Reputation, seinem Kommentarmuster und seinem Feedback umgeht, ist kein perfektes System, sollte es aber nicht sein. Dies gibt den Nutzern den Vorteil, dass sie Zweifel haben und dann hart gegen sie vorgehen, wenn sie ihr wahres Gesicht zeigen. Am Ende sollten wir einen Benutzer haben, dessen Erfolgsbilanz und sozialer Punktestand dies widerspiegeln. Wenn dieser Punktestand sehr problematisch ist, ist es die beste Vorgehensweise, diese Person im Schatten zu verbieten.

Bildnachweis: iStock

Sie können auch die verräterischen Anzeichen eines mündlichen Vorbeifahrens im Laufe der Zeit modellieren, um es zu kennzeichnen, bevor es jemand sieht, und geeignete automatisierte Maßnahmen ergreifen. Auch hier wäre es unmöglich, ein perfektes System zur Missbrauchsbekämpfung aufzubauen, aber mit einem Datenfluss, der von mehreren eigens dafür gebauten neuronalen Netzen moderiert wird, haben Sie definitiv einen Vorteil gegenüber toxischen Benutzern. Und für einige Benutzer wird es mit Sicherheit eine Art perverse Herausforderung sein, zu sehen, wie weit sie das System vorantreiben und zu einem Kommentator mit der niedrigsten Reputation oder der höchsten Straftat werden können. Aber für eine Reihe anderer könnte es sich tatsächlich um ein wichtiges Feedback handeln.

Diese Bigots haben sich vielleicht als nüchterne Skeptiker gesehen, die sich mehr um Fakten als um Gefühle sorgen, aber als sie in die Trumpistenblasen eintauchten, wurden sie dazu gebracht, Bigotterie durch verzerrte, irreführende Daten und geradezu Lügen zu akzeptieren. Sie sehen sich immer noch als aufrechte Menschen ohne einen hasserfüllten Knochen in ihrem Körper. Aber ein Computer, der ihnen anzeigt, wann, wie oft und in welchem ​​Ausmaß ein Bigot-Sensor ausgelöst wurde, zeigt ihnen möglicherweise, dass sie nicht die netten Menschen sind, von denen sie dachten.

Screenshot von Reddit-Threads für

Die Möglichkeit, dieses Feedback transparent darzustellen, ist möglicherweise ebenso wichtig für eine gute Anti-Troll-KI wie die Überwachung der Verkehrsquellen, des tatsächlichen Inhalts, der Benutzerhistorien und das Erkennen von Hundepfeifen aus diesen Historien sowie der Eingaben anderer Benutzer und Administratoren. Wir wollen nicht, dass etwas Missbrauch meldet, wenn wir nicht wissen, wie es funktioniert. Wir wollen etwas, das uns einen Audit-Trail zeigt, um Benutzer und Programmierer darüber zu informieren, was passiert ist, und verwenden denselben Prozess zur Identifizierung von Bigots: im Laufe der Zeit, im Kontext, Zeit und Gelegenheit für die Haube zu geben, zu rutschen und zu enthüllen, was sich darunter befindet.

Dann können wir Benutzer, die giftige oder bigotte Kommentare hinterlassen, stumm schalten, unter Quarantäne stellen und ihnen Feedback geben, was wir als so anstößig empfinden und warum. Es gibt zwar kein Gesetz gegen Hassreden oder Rassismus, aber Social Media ist kein staatlich geführtes Unternehmen, das seine Erständerungsrechte respektieren muss und nichts gegen seine Rede unternehmen kann, um nicht gegen das Gesetz zu verstoßen. Trolle können und tun dies, indem sie ihre eigenen Netzwerke aufbauen, in denen sie in einer Umgebung existieren können, in der es keine Probleme gibt und die Enttäuschung, dass sie „Normen“ nicht belästigen können, muss nicht unser Problem sein.

Ehemaliger Breitbart, Herausgeber Milo Yiannopoulos (Instagram)

Social Media muss den Müll rausholen

Social Media wurde erstellt und wird von privaten Unternehmen gepflegt, die Bigots keine große Plattform bieten müssen, und die Nutzer haben es satt, dass Trolle aufrichtig glauben, dass ihre Meinung nur beleidigend für „Libtards, Cucks und Kikes“ ist. Aber jede Meinungsverschiedenheit und Konsequenz für ihre Handlungen und Worte verletzt ihr Recht auf freie Meinungsäußerung. Da dies nicht der Fall ist, können wir endlich etwas gegen den populären Refrain unternehmen, in dem der Kommentarbereich einen Misanthrop darstellt, um seinen Hass gegen die Menschlichkeit zu bekräftigen, und die Vernunft und der bürgerliche Diskurs einen schrecklichen Tod durch tausend Beleidigungen fordern.

Googles neuer Perspektiv-Algorithmus ist ein guter Anfang, aber es ist nur ein Teil des Puzzles, den wir mit den Datenpunkten eines einzelnen Kommentars nicht lösen können, selbst wenn die am besten trainierten neuronalen Netzwerke wiederkehren. Letztendlich müssen wir den Computern beibringen, einem Gespräch zu folgen und eine fundierte Meinung über den Charakter einer Person abzugeben. Dies kann nicht von einem einzelnen neuronalen Netz durchgeführt werden, das stark von der Analysesprache abhängt. Zu verstehen, wie es geht, kann eines der wichtigsten technischen Probleme sein, mit denen wir uns befassen, oder das Netz für Armeen von Trollen, Bots und Menschen zu verlieren, die wirklich darauf aus sind, einem starken Mann den Garaus zu machen.

Ja, die KI wird nicht perfekt sein. Es kommt zu Fehlalarmen und Sarkasmus wird als Rassismus gewertet, während der tatsächliche Rassismus gelegentlich freigelassen wird. Wenn Menschen manchmal Probleme haben, die beiden zu unterscheiden, wird auch ein Computer Fehler machen. Aber wir streben nicht nach Perfektion. Wir streben nach Parität mit menschlichen Moderatoren, die verstehen, was Bigotterie ist, wie sie sich anhört und keine Ausnahmen machen oder willkürlichen, absolutistischen Regeln folgen, wie sie Facebook für sein Moderationsteam aufgestellt hat. Wir müssen nicht jeden, der in der Öffentlichkeit etwas Unangenehmes gesagt hat, in Erinnerung rufen, sondern nur genug der absolut schlimmsten Straftäter fangen, um ihren Vormarsch einzudellen.

Außerdem gibt es für jedes Netzwerk eine Debatte darüber, wie mit den Systemausgaben umgegangen werden soll. Sollten sie Bigots digital in ihre eigenen Ecken stecken und sie dann als giftig markieren, wie Reddit und einige Spielegemeinschaften? Sollten sie im Schatten gebannt oder komplett gebootet werden? Wie gehe ich mit Wiederholungstätern um, die herausfinden konnten, wie die neueste Iteration des Systems gespielt werden kann? Keine dieser Fragen ist technisch, sondern es handelt sich um philosophische Debatten, die jedes Social-Media-Unternehmen für sich haben muss. Aber sie müssen sie haben. Und so weiter.

Dieser Artikel erschien ursprünglich am 03.01.2017 auf [seltsame Dinge] und wurde erweitert und leicht aktualisiert.

Wenn Sie Projekte wie dieses unterstützen möchten, können Sie uns helfen, unseren Betrieb zu finanzieren, indem Sie sich unserer Community anschließen

Was wir anbieten

$ 3 - Machen Sie einen Unterschied! Unterstützen Sie Independent Journalism, erhalten Sie exklusive Beiträge und werden Sie Gründungsmitglied von Rantt, Inc.

$ 5 - Hassen Sie uns, möchten uns aber im Geschäft halten, um Ihren Hass fortzusetzen? Werden Sie ein Hutmacher, damit wir uns nicht mehr auf die Finanzierung von George Soros verlassen müssen.

$ 10 - Treten Sie dem Team bei! Rund um die Uhr Zugang zu Rantts #Newsroom on Slack. Hier können Sie mit den Autoren, Redakteuren und Gründern zuschauen und sprechen, während wir in Echtzeit über Neuigkeiten und aktuelle Ereignisse diskutieren.

$ 20 - Veröffentlicht werden! Arbeiten Sie eins zu eins mit Ihrem persönlichen Rantt-Editor, um Geschichten zu entwickeln und zu schreiben, die auf unserer Website veröffentlicht werden sollen. Sie haben die Geschichte erfunden und wir stellen sicher, dass sie in kürzester Zeit fertig ist!

$ 100 - Werden Sie Experte! Erstmaliger Schriftsteller? Kein Problem. Sie werden ein Team Ihrer persönlichen Rantt-Redakteure zusammenstellen, das Sie bei der Suche nach Ihrer Stimme und der Erstellung Ihrer Artikel unterstützt. Wir sorgen dafür, dass Ihre Artikel nicht nur hart, sondern auch weitreichend sind. Beinhaltet alle oben genannten und Schulungswebinare.

$ 200 - Influencer werden! Wir haben das Twitter-Publikum unseres Unternehmens organisch vergrößert, um monatlich 3 Millionen Menschen zu erreichen, ohne einen Cent auszugeben. Wir garantieren Ihnen, dass unsere Methoden Ihnen mindestens 1.000 ECHTE Follower pro Monat einbringen! Wir werden Schritt für Schritt vorgehen und Ihnen beibringen, wie Sie Ihre Fangemeinde vergrößern können. Beinhaltet all das oben Genannte, Schulungswebinare und Zugang zu einem lockeren Kanal mit unserem Kreativteam.

Weitere Angebote finden Sie in unserem Patreon.

BEGLEITEN SIE UNS

Nochmals vielen Dank für alles. Wir lieben und schätzen dich!

Mit freundlichen Grüßen,

Das Rantt-Team

Bleiben Sie auf dem Laufenden und abonnieren Sie unseren Newsletter, indem Sie uns auf Rantt folgen

Folgen Sie uns auf Twitter: @RanttNews

Besuchen Sie uns auf Facebook: / RanttNews