Roboter Erstellen Die Plausibelsten Informationsfälschungen - Alternative Ansicht

Roboter Erstellen Die Plausibelsten Informationsfälschungen - Alternative Ansicht
Roboter Erstellen Die Plausibelsten Informationsfälschungen - Alternative Ansicht

Video: Roboter Erstellen Die Plausibelsten Informationsfälschungen - Alternative Ansicht

Video: Roboter Erstellen Die Plausibelsten Informationsfälschungen - Alternative Ansicht
Video: Übelste Fake Breitling Uhr? 2024, Kann
Anonim

Stellen Sie sich vor, eines Tages würde ein Wunderkind eine Technologie erfinden, die es Menschen oder materiellen Gegenständen ermöglicht, durch Wände zu gelangen, und im Internet Anweisungen veröffentlichen, wie man eine solche Wundermaschine billig aus allgemein verfügbaren Haushaltsmaterialien baut. Wie würde sich die Welt verändern?

Viele Branchen dürften deutlich produktiver werden. Die Möglichkeit, durch Wände zu gehen, anstatt Türen benutzen zu müssen, würde es den Menschen erleichtern, sich in Büros zu bewegen, Waren in Lagern zu bewegen und unzählige tägliche Haushaltsaufgaben zu erledigen. Die negativen Folgen könnten jedoch die positiven durchaus überwiegen. Wertsachen unter Verschluss zu halten, würde jede Bedeutung verlieren. Jeder konnte leicht das Lager betreten, in einen Banksafe oder ein Haus gelangen.

Die meisten Methoden, die wir zum Schutz von Privateigentum anwenden, betreffen Wände auf die eine oder andere Weise, sodass alle über Nacht unbrauchbar wären. Diebe würden ungestraft handeln, bis die Gesellschaft alternative Wege gefunden hätte, um solche Verbrechen zu verhindern. Ein wirtschaftlicher Zusammenbruch oder ein soziales Chaos könnte das Ergebnis einer solchen Entwicklung von Ereignissen sein.

Das Obige veranschaulicht ein allgemeines Prinzip: Technologische Innovation ist zumindest kurzfristig nicht immer für die Gesellschaft von Vorteil. Technologien können negative externe Effekte und externe Effekte erzeugen. Dieser wirtschaftliche Begriff bedeutet Schaden, der Dritten oder Dritten zugefügt wird. Wenn diese negativen externen Effekte die Nützlichkeit der Technologie selbst überwiegen, macht die Erfindung die Welt tatsächlich zumindest für eine Weile schlechter, nicht besser.

Maschinelles Lernen, insbesondere eine als Deep Learning bekannte Variante, ist wohl der heißeste technologische Durchbruch auf dem Planeten. Es ermöglicht Computern, viele Aufgaben auszuführen, die bisher nur Menschen ausführen konnten: Bilder erkennen, Autos fahren, an der Börse handeln und vieles mehr. Dies hat bei einigen Menschen zu der Sorge geführt, dass maschinelles Lernen Menschen am Arbeitsplatz unnötig und nutzlos machen kann. Und das ist tatsächlich möglich, aber es besteht eine viel ernstere Gefahr durch maschinelles Lernen, die bisher nicht genügend Beachtung gefunden hat. Der Punkt ist, dass wenn Maschinen lernen können, sie auch lernen können zu lügen.

Menschen können heute Bilder wie Fotografien fälschen, aber dies ist ein mühsamer und komplexer Prozess. Und die Fälschung eines Sprach- oder Videobildes geht im Allgemeinen über die Fähigkeiten eines normalen Menschen hinaus. Dank maschinellem Lernen wird es jedoch wahrscheinlich bald möglich sein, plausible gefälschte Videobilder des Gesichts einer Person zu erstellen und den Eindruck zu erwecken, dass die Person mit ihrer eigenen Stimme spricht. Es gibt bereits eine Technologie zum Synchronisieren von Lippenbewegungen, die buchstäblich alle Wörter in den Mund einer Person stecken kann. Dies ist nur die Spitze des Eisbergs. In Kürze werden 12-Jährige in der Lage sein, fotorealistische und glaubwürdig klingende gefälschte Bilder von Politikern, Geschäftsführern, ihren Verwandten oder Freunden in ihren Schlafzimmern in ihren Schlafzimmern zu erstellen und alles zu sagen, was sie sich vorstellen können.

Dies an sich provoziert einen offensichtlichen Missbrauch. Politische Scherze, die sogenannten "Fake News" oder "Information Stuffing", verbreiten sich wie Waldbrände. Natürlich wird die Täuschung so schnell wie möglich erkannt - keine digitale Technologie kann so gut sein, dass andere Technologien die Fälschung nicht erkennen können. Dies wird jedoch erst geschehen, nachdem die schädliche Idee bereits in die Köpfe der Menschen eingedrungen ist, die daran glauben. Stellen Sie sich ein perfekt fabriziertes gefälschtes Video vor, in dem Präsidentschaftskandidaten rassistische Beleidigungen schreien oder schwere Verbrechen gestehen.

Dies ist jedoch nur der Anfang. Stellen Sie sich das Potenzial vor, den Aktienmarkt zu manipulieren. Angenommen, jemand hat ein gefälschtes Video verbreitet, in dem Elon Musk, CEO von Tesla, zugibt, dass Tesla-Autos nicht sicher sind. Das Video wird online gehen und die Aktie des Unternehmens wird abstürzen. Bald nach der Entdeckung einer Fälschung wird sich ihr Preis erholen. Während dieser Zeit werden Manipulatoren jedoch in der Lage sein, großes Geld zu verdienen, um die Tesla-Aktien zu reduzieren.

Werbevideo:

Und das ist alles andere als das extremste Szenario. Stellen Sie sich einen solchen Witzbold vor, der ein realistisches gefälschtes Video von Präsident Donald Trump erstellt, in dem er feststellt, dass ein Streik gegen nordkoreanische Ziele unmittelbar bevorsteht, und das Video dann dort veröffentlicht, wo Nordkoreaner es sehen können. Wie hoch sind die Chancen, dass die nordkoreanische Führung erkennt, dass dies eine Fälschung ist, bevor sie sich entscheiden muss, einen Krieg zu beginnen?

Diejenigen, die dazu neigen, solche extremen Szenarien als Alarmist zu betrachten, werden vernünftigerweise darauf hinweisen, dass jede Fälschung erkannt werden kann, da dieselben maschinellen Lerntechnologien verwendet werden, um sie zu erkennen wie für die Erstellung. Dies bedeutet jedoch nicht, dass wir nicht in Gefahr sind, in einer Welt voller allgegenwärtiger Fälschungen zu landen. Sobald die Fälschungen so glaubwürdig werden, dass die Menschen sie nicht mehr selbst erkennen können, verlieren wir für immer das Vertrauen in das, was wir sehen und hören. Anstatt unseren eigenen Sinnen zu vertrauen, werden wir gezwungen sein, uns auf Algorithmen zu verlassen, mit denen Fälschungen erkannt und Informationen authentifiziert werden. Im Laufe der Evolution haben wir gelernt, unseren eigenen Gefühlen zu vertrauen.und die Übertragung dieser Funktionen auf die Maschinenintelligenz kann für die meisten Menschen zu drastisch sein.

Dies könnte eine schlechte Nachricht für die Wirtschaft sein. Geschäfts- und Handelsnetzwerke bauen auf Vertrauen und Kommunikation auf. Wenn maschinelles Lernen eines Tages einen endlosen Hurrikan von Illusionen und Fälschungen in die öffentliche Informationssphäre wirft, werden die Wände, die durch die Evolution geschaffen wurden, um Realität von Fiktion zu unterscheiden, einstürzen. In diesem Fall kann das Vertrauen in die Gesellschaft schnell sinken, was sich nicht verlangsamt und das globale Wohlergehen der Menschheit negativ beeinflusst.

Aus diesem Grund sollte die Regierung wahrscheinlich einige Schritte unternehmen, um sicherzustellen, dass digitale Fälschungen streng bestraft werden. Leider ist es unwahrscheinlich, dass die derzeitige Regierung aus Liebe zu Nachrichten mit engen Parteien einen solchen Schritt macht. Und Regierungen wie Russland dürften noch weniger geneigt sein, solche Praktiken einzudämmen. Letztendlich stellt die Kombination von schlechter Regierungsführung mit leistungsfähigen neuen Technologien eine weitaus größere Bedrohung für die menschliche Gesellschaft dar als die Technologien selbst.

Von Noah Smith - Bloomberg News Columnist

Igor Abramov

Empfohlen: