Roboter wie Amazon Echo werden immer beliebter. Aber sie sind relativ neue Gäste in unseren Häusern und wir sind uns nicht immer sicher, wie sie sich verhalten werden. Es herrscht große Sorge, dass Echo wie ein verdeckter Spion arbeitet, der auf alles hört, was wir sagen. Das Gerät beginnt jedoch erst mit der Aufzeichnung, nachdem Benutzer es mit einem Auslösewort geweckt haben. Amazon gibt keine vom Kunden identifizierbaren Informationen an Dritte weiter und Benutzer können die von Echo aufgezeichneten Daten endgültig löschen. Die Leute dachten sogar, Alexa - der Cloud-basierte Sprachdienst, den Echo nutzt - könnte die Polizei anrufen, um häuslichen Missbrauch zu melden, obwohl dies nicht möglich war.

Was verursacht die Panik? Nun, Geräte wie Echo sind anfällig für Hacks und Neuidentifizierungen und haben ungelöste First Amendment-Probleme. Ihre Funktionen können sich ändern. In der Tat kann niemand garantieren, dass zukünftige Amazon-Produkte nicht „ständig aufzeichnen“.

Es gibt jedoch einen fundamentalen Grund, warum wir Produkte wie Echo als störend empfinden: Die Roboter sind ganz andere. Sie hören wie Maschinen, nicht wie Menschen. Sie erinnern sich an Informationen wie Maschinen, nicht wie Menschen. Und sie teilen Informationen wie Maschinen und nicht wie Menschen. Wir können ein Echo nicht genau einschätzen, indem wir es betrachten und mit vielen Menschen sprechen, wie wir es können.

In einem zukunftsweisenden Artikel über die Überprüfung von Gesetzen von Margot Kaminsky, Matthew Ruben, William Smart und Cindy Grimm identifizieren die Autoren ein neues Problem, das am Horizont lauert: Roboterfälschungen, die unsere tief verwurzelten Reaktionen auf die menschliche Körpersprache ausnutzen sollen .

Als ein hypothetischer Fall von „unehrlichem Anthropomorphismus“ laden die Wissenschaftler uns ein, uns einen Roboter vorzustellen, der eine Fehlleitung ausführt, indem er nach unten schaut und gleichzeitig eine Person in der Nähe mit einer in seinem mechanischen Hals installierten Kamera unter die Lupe nimmt. Oberflächlich gesehen geben die niedergeschlagenen Augen des Roboters beruhigende visuelle Hinweise - der Roboter kann nicht alles sehen, was getan wird, und daher ist etwas Privatsphäre geschützt -, aber die Geste vermittelt dank der Sensoren und der Verarbeitung, die vor dem Blick verborgen sind, ein falsches Gefühl des Vertrauens.

Fake-Out-Bot, wie ich es gerne nenne, hat einige Ähnlichkeiten mit Echo, unterscheidet sich aber auch grundlegend. Wie Echo absorbiert, knirscht und gibt ein Fake-Out-Bot Informationen wie ein Computer und keine Person frei. Im Gegensatz zu Echo sieht ein Fake-Out-Bot jedoch wie ein Mensch aus. Während also die aktuelle Version von Echo der zweiten Generation Gefühle der Menschlichkeit in uns hervorrufen kann, obwohl die Maschine wie ein Lautsprecher aussieht, erhöht eine Fälschung den Einsatz.

Der Mensch hat sich biologisch und sozial weiterentwickelt, um bestimmte Körperteile nur mit dem Blick in Verbindung zu bringen: Augen können neugierig sein - aber nicht Hälse, Wangen, Augenbrauen, Ellbogen, Finger, Zehen oder Schienbein. Niedergeschlagene Augen vermitteln das Gefühl, dass das gesamte Bild nicht gesehen und nicht gesehen werden kann - dass nur Kleinigkeiten absorbiert werden.

Fake-out-Bot ist nicht nur deshalb gefährlich, weil er sich von weniger humanistischen Internet-of-Things-Geräten unterscheidet. Die Bedrohungen unterscheiden sich auch von bekannten Fällen von Online-Duplizität.

Menschen sind fehlerhaft und leicht zu betrügen

Viele Online-Betrüger geben vor, andere Menschen zu sein, nicht andere Bots. Sicher, die Bedrohung durch "gut publizierte" Fälle von Täuschung kann uns ein irreführendes Gefühl dafür vermitteln, wie gefährlich es im Allgemeinen ist, mit anderen Menschen online in Kontakt zu treten.

Aber Probleme wie Katzenfischen existieren und bestehen weiter. Wenn Welse ihre Identität in sozialen Medien, Texten, E-Mails und Ähnlichem gut genug verbergen, können sie verführen. Mit gefälschten Fotos von begehrenswerten Menschen und unaufrichtigen romantischen Worten bringen Wels die Opfer dazu, ihnen zu vertrauen. Wir haben alle viele Beispiele gehört, wie die Behauptung des pensionierten NBA-Stars Ray Allen, er sei von einem Mann zum Opfer gefallen, der vorgab, "eine Reihe attraktiver Frauen" zu sein.

Phishing ist eine vergleichbare Aktivität. Bei einigen Phishing-Attacken werden Leute dazu verleitet, Kreditkartennummern, Passwörter und Sozialversicherungsnummern auszugeben. Dieser Schwindel tritt auf, wenn Diebe sich als Mitglieder angesehener Organisationen, Unternehmen oder Institutionen tarnen. Als besorgter Vertreter von JPMorgan Chase, Wells Fargo, der Bank of America oder eines ähnlichen Unternehmens können Phisher E-Mail-Empfängern zwingende Gründe liefern, finanzielle Details, die sie unter Verschluss halten sollten, ohne Bedenken mitzuteilen. Mit Beginn der Olympischen Winterspiele 2018 wurden Phishing-Angriffe angepasst und Szenarien erfunden, um die Vorteile der Spiele zu nutzen.

Eine andere Art des Phishing besteht darin, dass Diebe sich als verletzliche Personen in schwierigen Situationen ausgeben, die sofort finanzielle Unterstützung benötigen, aber absurd großzügige Belohnungen bieten können. Eine der beliebtesten Versionen dieses Vertrauensschlägers ist der nigerianische Betrug, bei dem fiktive Mitglieder fabrizierter vermögender Familien fälschlicherweise Reichtümer als Gegenleistung für einen Betrüger versprechen, der geringfügige Anwaltskosten zahlt, um ein Vermögen freizulassen.

Die Vorlage für dieses Flimflam stammt zwar aus mehr als 200 Jahren, stammt aber noch aus der Zeit der spanischen Gefangenen. Vor kurzem wurden die zugrunde liegenden Emotionen, mit denen es zu tun hat, wie Gier, von Leuten ausgenutzt, die Präsident Trump und Elon Musk auf Twitter verkörperten, um ein bisschen Trubel zu machen.

Wenn diese Betrügereien funktionieren - oder verwandte wie Bots in sozialen Medien, die als Menschen getarnt sind, mit falschen Namen, Bios, identifizierenden Fotos und cleveren Skripten mit menschlichem Klang -, liegt das daran, dass Opfer das, was sie sehen und lesen, zum Nennwert nehmen. Sie hinterfragen nicht kritisch, wie die Informationen vermittelt werden, mit denen sie online präsentiert werden, und wie sie sich möglicherweise von denen unterscheiden, mit denen sie in ähnlichen persönlichen Situationen konfrontiert werden.

Persönlich ist es viel schwieriger, Ihr Aussehen und Ihre Stimme zu verschleiern. Deshalb sind so viele Leute überrascht, wenn sie zum ersten Mal ein Online-Date treffen und die Person tatsächlich so aussieht, als würde sie ihr Profilbild mögen. Um jünger auszusehen, werden alte Fotos hochgeladen. Um attraktiver auszusehen, wird mit Filtern, Bearbeitung und Kamerawinkeln gespielt.

Fake-Out-Bot ist beängstigend, weil er leicht unsere Sinne täuschen und uns sozusagen von Angesicht zu Angesicht austricksen kann. Hollywood-Maskenbildner und plastische Chirurgen können Wunder bewirken, aber es wäre lächerlich, wenn der durchschnittliche Weiße versuchen würde, wie ein nigerianischer Prinz auszusehen oder zu klingen. Technologen werden es jedoch nicht schwer haben, versteckte Kameras auf Fake-Out-Bots zu installieren, die die Illusion aufrechterhalten, dass das, was Sie sehen, nicht das ist, was Sie bekommen.

Roboter können übermenschliche Fähigkeiten haben

Während einige Menschen bessere Sicht, Erinnerungen und IQs haben als andere, sind die Bereiche im Vergleich zu den Lücken, die Roboter voneinander und von uns trennen können, verblasst. Roboter können auf so viele verschiedene Arten und mit so unterschiedlichen Fähigkeiten konstruiert werden, dass wir keine fundierten Vermutungen anstellen können, was sie tun können, wenn wir sie nur anschauen.

Infrarot Vision? Das ist möglich. Übermenschliche Lippenlesefähigkeit? Prüfen. Die einzige Möglichkeit zu glauben, ist, wenn wir einem Roboter vertrauen können, da es sich um ein bekanntes Modell mit klar definierten Spezifikationen handelt, die nicht manipuliert wurden.

Die engste Parallele zu den beunruhigenden Gesten eines Fake-Out-Bots sind irreführende Avatare. Wie Judith Donath, Beraterin am Berkman Klein Center von Harvard, vor Jahren feststellte, als die virtuelle Welt Second Life beliebt war, können Online-Versionen der Körpersprache irreführend sein, da sie nicht denselben Einschränkungen unterliegen, die sozialisierte menschliche Körper einschränken.

Ein Avatar, der Augenkontakt vermeidet, muss nicht abgelenkt oder schüchtern sein. Ein Avatar mit direktem Blickkontakt muss nicht die Wahrheit sagen. Und ein lächelnder Avatar muss nicht freundlich sein. Natürlich können Menschen diese Tricks auch ausführen. Speziell ausgebildete Personen, wie FBI-Agenten, sind Experten darin, während eines Verhörs effektiv auf verbale und physische Hinweise zu reagieren.

Vielleicht ist es das, was vor uns liegt, es sei denn, wir leisten gute Arbeit bei der Regulierung von Innovationen: hinterhältige Master-Manipulator-Bots, die nicht durch erkennbare Tells belastet sind.

Wie Kaminski und ihre Mitautoren argumentieren, bilden die bestehenden Datenschutzgrundsätze, die als Fair Information Practice Principles (FIPPS) bekannt sind, die Grundlage, um dieser Art von Täuschung entgegenzuwirken. Sie müssen jedoch im Zeitalter der Roboter aktualisiert werden, um Rechenschaftspflicht für die Ausnutzung angeborener und tief verwurzelter menschlicher Reaktionen zu schaffen.

Unabhängig davon, ob es sich um Industriestandards, behördliche Vorschriften oder verbraucherorientierte Anforderungen handelt, müssen die Fake-out-Bots unter uns identifizierbar sein.

Wir beurteilen andere Menschen jede Minute des Tages. Wir müssen auch Bots beurteilen können.