Wie Neuronale Netze Gelehrt Wurden, Um Das Nachrichtenbild Zu Fälschen - Alternative Ansicht

Inhaltsverzeichnis:

Wie Neuronale Netze Gelehrt Wurden, Um Das Nachrichtenbild Zu Fälschen - Alternative Ansicht
Wie Neuronale Netze Gelehrt Wurden, Um Das Nachrichtenbild Zu Fälschen - Alternative Ansicht

Video: Wie Neuronale Netze Gelehrt Wurden, Um Das Nachrichtenbild Zu Fälschen - Alternative Ansicht

Video: Wie Neuronale Netze Gelehrt Wurden, Um Das Nachrichtenbild Zu Fälschen - Alternative Ansicht
Video: Neuronale Netze - Basiswissen 2024, April
Anonim

Zur Erzeugung von Fälschungen werden künstliche Intelligenzsysteme und Technologien zur Erzeugung von Video- und Audio-Fälschungen verwendet.

Um für jeden von uns ein „individuelles“Nachrichtenbild zu erstellen und die darin ausgewählten Medienberichte zu verfälschen, reichen heute die Bemühungen eines Programmierers aus. Spezialisten für künstliche Intelligenz und Cybersicherheit berichteten Izvestia darüber. In jüngerer Zeit schätzten sie, dass dies die Arbeit mehrerer Teams erforderte. Eine solche Beschleunigung wurde durch die Entwicklung von Technologien für Angriffe auf neuronale Netze und die Erzeugung von Ton- und Videofälschungen unter Verwendung von Programmen zur Erzeugung von „tiefen Fälschungen“möglich. Die Zeitung Izvestia wurde kürzlich einem ähnlichen Angriff ausgesetzt, als drei libysche Nachrichtenportale gleichzeitig eine Nachricht veröffentlichten, die angeblich in einer der Ausgaben erschien. Experten zufolge kann man innerhalb von 3-5 Jahren mit einer Invasion von Robotermanipulatoren rechnen, die automatisch viele Fälschungen hervorrufen können.

Schöne neue Welt

Es gab immer mehr Projekte, die das Informationsbild an die Wahrnehmung bestimmter Benutzer anpassen. Ein Beispiel für ihre Arbeit war die jüngste Aktion von drei libyschen Portalen, die Nachrichten veröffentlichten, die angeblich am 20. November in der Ausgabe von Izvestia abgedruckt waren. Die Macher der Fälschung modifizierten die Titelseite der Zeitung und posteten darauf eine Nachricht über die Verhandlungen zwischen Feldmarschall Khalifa Haftar und dem Premierminister der Regierung des Nationalen Abkommens (PNS) Fayez Sarraj. Die Fälschung in Izvestia-Schrift wurde von einem Foto der beiden Führer begleitet, das im Mai 2017 aufgenommen wurde. Das Etikett mit dem Logo der Veröffentlichung wurde aus der tatsächlich veröffentlichten Ausgabe vom 20. November und allen anderen Texten auf der Seite aus der Ausgabe vom 23. Oktober herausgeschnitten.

Aus Sicht von Fachleuten können solche Fälschungen in absehbarer Zeit automatisch durchgeführt werden.

Image
Image

"Technologien für künstliche Intelligenz sind jetzt völlig offen und Geräte zum Empfangen und Verarbeiten von Daten werden miniaturisiert und billiger", sagte Yuri Vilsiter, Doktor der Physikalischen und Mathematischen Wissenschaften, Professor der Russischen Akademie der Wissenschaften, Leiter der FSUE-Abteilung "GosNIIAS", gegenüber Izvestia. - Daher ist es sehr wahrscheinlich, dass in naher Zukunft nicht einmal der Staat und große Unternehmen, sondern lediglich Privatpersonen in der Lage sein werden, uns zu belauschen und auszuspionieren sowie die Realität zu manipulieren. In den kommenden Jahren wird es möglich sein, ihn durch die Analyse der Benutzerpräferenzen durch Newsfeeds und sehr clevere Fälschungen zu beeinflussen.

Werbevideo:

Laut Yuri Vilsiter gibt es bereits Technologien, die für einen solchen Eingriff in die mentale Umgebung eingesetzt werden können. Theoretisch kann die Invasion von Manipulator-Bots in einigen Jahren erwartet werden, sagte er. Ein Grenzpunkt hierbei könnte die Notwendigkeit sein, große Datenbanken mit Beispielen für die Reaktionen realer Menschen auf künstliche Reize zu sammeln, um die langfristigen Folgen zu verfolgen. Eine solche Verfolgung erfordert wahrscheinlich mehrere Jahre Forschung, bevor gezielte Angriffe konsequent durchgeführt werden.

Visionsangriff

Alexei Parfentiev, Leiter der Analytics-Abteilung bei SearchInform, stimmt Yuri Vilsiter zu. Experten sagen bereits Angriffe auf neuronale Netze voraus, obwohl es derzeit praktisch keine derartigen Beispiele gibt.

- Forscher von Gartner glauben, dass bis 2022 30% aller Cyberangriffe darauf abzielen werden, die Daten, auf denen das neuronale Netzwerk trainiert, zu verfälschen und vorgefertigte Modelle für maschinelles Lernen zu stehlen. Dann können beispielsweise unbemannte Fahrzeuge plötzlich Fußgänger mit anderen Objekten verwechseln. Und wir werden nicht über finanzielle oder Reputationsrisiken sprechen, sondern über das Leben und die Gesundheit gewöhnlicher Menschen, glaubt der Experte.

Angriffe auf Computer-Vision-Systeme werden derzeit im Rahmen der Forschung durchgeführt. Der Zweck solcher Angriffe besteht darin, das neuronale Netzwerk zu zwingen, im Bild zu erkennen, was nicht vorhanden ist. Oder umgekehrt, um nicht zu sehen, was geplant war.

Image
Image

"Eines der sich aktiv entwickelnden Themen im Bereich des Trainings neuronaler Netze sind die sogenannten gegnerischen Angriffe (" gegnerische Angriffe "- Izvestia)", erklärte Vladislav Tushkanov, Webanalyst bei Kaspersky Lab. - In den meisten Fällen richten sie sich an Computer-Vision-Systeme. Um einen solchen Angriff auszuführen, müssen Sie in den meisten Fällen vollen Zugriff auf das neuronale Netzwerk (die sogenannten White-Box-Angriffe) oder die Ergebnisse seiner Arbeit (Black-Box-Angriffe) haben. Es gibt keine Methoden, die in 100% der Fälle ein Computer-Vision-System täuschen können. Darüber hinaus wurden bereits Tools entwickelt, mit denen Sie neuronale Netze auf Widerstand gegen gegnerische Angriffe testen und deren Widerstand erhöhen können.

Während eines solchen Angriffs versucht ein Angreifer, das erkannte Bild irgendwie so zu ändern, dass das neuronale Netzwerk nicht funktioniert. Oft überlagert das Foto Rauschen, ähnlich wie beim Fotografieren in einem schlecht beleuchteten Raum. Eine Person bemerkt eine solche Störung normalerweise nicht gut, aber das neuronale Netzwerk beginnt zu versagen. Um einen solchen Angriff auszuführen, muss der Angreifer jedoch auf den Algorithmus zugreifen können.

Laut Stanislav Ashmanov, Generaldirektor von Neuroset Ashmanov, gibt es derzeit keine Methoden, um mit diesem Problem umzugehen. Darüber hinaus steht diese Technologie jedem zur Verfügung: Ein durchschnittlicher Programmierer kann sie verwenden, indem er die erforderliche Open-Source-Software vom Github-Dienst herunterlädt.

Image
Image

- Ein Angriff auf ein neuronales Netzwerk ist eine Technik und ein Algorithmus, um ein neuronales Netzwerk zu täuschen, wodurch es zu falschen Ergebnissen führt und es tatsächlich wie ein Türschloss aufbricht. - Ashmanov glaubt. - Zum Beispiel ist es jetzt ziemlich einfach, das Gesichtserkennungssystem glauben zu lassen, dass es nicht Sie sind, sondern Arnold Schwarzenegger davor - dies geschieht durch Mischen von Additiven, die für das menschliche Auge nicht wahrnehmbar sind, in die Daten, die in das neuronale Netzwerk gelangen. Die gleichen Angriffe sind für Spracherkennungs- und Analysesysteme möglich.

Der Experte ist sich sicher, dass es nur noch schlimmer werden wird - diese Technologien sind in die Massen gegangen, Betrüger setzen sie bereits ein und es gibt keinen Schutz gegen sie. Da es keinen Schutz gegen die automatische Erstellung von Video- und Audio-Fälschungen gibt.

Tiefe Fälschungen

Deepfake-Technologien, die auf Deep Learning basieren (Technologien zum Deep Learning neuronaler Netze - Izvestia), stellen bereits eine echte Bedrohung dar. Video- oder Audio-Fälschungen entstehen durch Bearbeiten oder Überlagern der Gesichter berühmter Personen, die angeblich den erforderlichen Text aussprechen und die erforderliche Rolle in der Handlung spielen.

„Mit Deepfake können Sie Lippenbewegungen und menschliche Sprache durch Videos ersetzen, wodurch ein realistisches Gefühl für das Geschehen entsteht“, sagt Andrey Busargin, Leiter der Abteilung für innovativen Markenschutz und geistiges Eigentum bei Group-IB. - Gefälschte Prominente bieten Nutzern in sozialen Netzwerken an, an der Verlosung wertvoller Preise (Smartphones, Autos, Geldsummen) usw. teilzunehmen. Links von diesen Videos führen häufig zu betrügerischen und Phishing-Sites, auf denen Benutzer aufgefordert werden, persönliche Informationen, einschließlich Bankkartendaten, einzugeben. Solche Systeme stellen eine Bedrohung sowohl für normale Benutzer als auch für Persönlichkeiten des öffentlichen Lebens dar, die in Werbespots erwähnt werden. Aufgrund dieser Art von Spielereien werden Promi-Bilder mit Betrug oder beworbenen Waren in Verbindung gebracht. Und hier stoßen wir auf persönlichen Markenschaden “, sagt er.

Image
Image

Eine weitere Bedrohung ist die Verwendung von „gefälschten Stimmen“für Telefonbetrug. In Deutschland beispielsweise haben Cyberkriminelle Voice Deepfake verwendet, um den Leiter einer britischen Tochtergesellschaft dazu zu bringen, in einem Telefongespräch als Unternehmensmanager dringend 220.000 Euro auf das Konto eines ungarischen Lieferanten zu überweisen. Der Chef der britischen Firma vermutete einen Trick, als sein "Chef" nach einer zweiten Zahlungsanweisung fragte, aber der Anruf kam von einer österreichischen Nummer. Zu diesem Zeitpunkt war die erste Tranche bereits auf ein Konto in Ungarn überwiesen worden, von wo aus das Geld nach Mexiko abgehoben wurde.

Es stellt sich heraus, dass die aktuellen Technologien die Erstellung eines individuellen Nachrichtenbildes mit gefälschten Nachrichten ermöglichen. Darüber hinaus wird es bald möglich sein, Fälschungen von echtem Video und Audio nur durch Hardware zu unterscheiden. Nach Ansicht von Experten ist es unwahrscheinlich, dass Maßnahmen, die die Entwicklung neuronaler Netze verbieten, wirksam sind. Deshalb werden wir bald in einer Welt leben, in der es notwendig sein wird, ständig alles zu überprüfen.

"Wir müssen uns darauf vorbereiten und es akzeptieren", betonte Yuri Vilsiter. - Die Menschheit ist nicht das erste Mal, dass sie von einer Realität zur anderen übergeht. Unsere Welt, Lebensweise und Werte unterscheiden sich radikal von der Welt, in der unsere Vorfahren vor 60.000 Jahren, vor 5.000 Jahren, vor 2.000 Jahren und sogar vor 200-100 Jahren lebten. In naher Zukunft wird eine Person weitgehend ihrer Privatsphäre beraubt und daher gezwungen sein, nichts zu verbergen und ehrlich zu handeln. Gleichzeitig kann nichts in der umgebenden Realität und in der eigenen Persönlichkeit auf Glauben genommen werden, alles muss hinterfragt und ständig überprüft werden. Aber wird diese zukünftige Realität schrecklich sein? Nein. Es wird einfach ganz anders sein.

Anna Urmantseva

Empfohlen: