Künstliche Intelligenz Als Terrorist: Neue Sicherheitsbedrohungen - Alternative Ansicht

Inhaltsverzeichnis:

Künstliche Intelligenz Als Terrorist: Neue Sicherheitsbedrohungen - Alternative Ansicht
Künstliche Intelligenz Als Terrorist: Neue Sicherheitsbedrohungen - Alternative Ansicht

Video: Künstliche Intelligenz Als Terrorist: Neue Sicherheitsbedrohungen - Alternative Ansicht

Video: Künstliche Intelligenz Als Terrorist: Neue Sicherheitsbedrohungen - Alternative Ansicht
Video: #kurzerklärt: Wie gefährlich ist künstliche Intelligenz? 2024, Oktober
Anonim

Russische Wissenschaftler haben die Bedrohungen durch den Einsatz künstlicher Intelligenz (KI) unter dem Gesichtspunkt der internationalen Information und der psychologischen Sicherheit untersucht und klassifiziert. Besonderes Augenmerk wurde auf die Bekämpfung des böswilligen Einsatzes von KI durch Terroristen gelegt. Die Forschungsergebnisse werden in der Zeitschrift Russia in Global Affairs veröffentlicht.

Gefahren des böswilligen Gebrauchs von KI

Die potenzielle Gefahr künstlicher Intelligenz für die Menschheit ist immer wieder zum Thema von Kunstwerken geworden und ist heute eines der am meisten diskutierten Themen der wissenschaftlichen und technologischen Entwicklung. Obwohl eine starke KI, die zu unabhängigem systemischem Denken fähig ist und möglicherweise über Selbstbewusstsein und Willen verfügt, noch lange nicht geschaffen ist, führen verschiedene fortgeschrittene Versionen der schwachen KI spezielle Aufgaben aus, die vor 10 Jahren wie Science-Fiction erschienen. Die Verwendung von KI für gute Zwecke (zum Beispiel in der Medizin) bringt zweifellos Vorteile. In den Händen von Terroristen und anderen kriminellen Organisationen können jedoch allmählich billigere und fortschrittlichere KI-Technologien zu einer schrecklicheren Waffe werden als Atomwaffen.

Forscher aus verschiedenen Ländern untersuchen aktiv die Bedrohungen, die der böswillige Einsatz von KI für die Gesellschaft als Ganzes und für bestimmte Bereiche menschlicher Aktivitäten darstellt, sei es für Politik, Wirtschaft, Militär usw. Es wurde jedoch noch nicht festgestellt, dass Bedrohungen für die internationale Information und die psychologische Sicherheit direkt unabhängig sind. Betrachtungsumfang. In der Zwischenzeit ist der Einsatz von KI zur Destabilisierung der internationalen Beziehungen durch gezielte High-Tech-Informationen und psychologische Auswirkungen auf die Menschen eine offensichtliche große Gefahr.

Die Autoren der Studie schlugen eine Klassifizierung der Bedrohungen für den böswilligen Einsatz künstlicher Intelligenz anhand einer Reihe von Kriterien vor, darunter territoriale Abdeckung, Geschwindigkeit und Form der Verbreitung. Durch Anwenden der Klassifizierung können Sie Wege finden, um Antwortwerkzeuge zu kontern und zu entwickeln.

„Die künftige Senkung der Kosten für KI-Technologien kann zu Bedrohungen durch grundlegend neue Terroranschläge führen. Es ist möglich, dass ein Chatbot verwendet wird, um eine Nachricht über ein gefälschtes Ereignis zu erstellen und potenzielle Opfer davon zu überzeugen, es zu besuchen. Um dem entgegenzuwirken, ist es ratsam, die Gesellschaft mit neuen Bedrohungen vertraut zu machen und die Bürger anzuweisen, sich vor Fernkontakten mit Personen zu hüten, die sie nicht persönlich kennen. Der Ausweg könnte die Zertifizierung öffentlicher Veranstaltungen sein, die die Realität der über sie veröffentlichten Informationen bestätigen. Die Aufgabe der technischen Spezialisten in diesem Fall wird natürlich der Schutz der Datenbanken über Ereignisse und der Mechanismus ihrer Zertifizierung sein “, sagte Daria Bazarkina, Professorin des Ministeriums für internationale Sicherheit und Außenpolitik Russlands bei RANEPA, gegenüber der RIA Nowosti.

Das moderne Niveau der Technologien und Fähigkeiten der KI ermöglicht es uns, eine Reihe grundlegend neuer Bedrohungen für die Information und die psychologische Sicherheit einer Person zu identifizieren.

Werbevideo:

Einsatz der Technologien "Fake People" und "Deepfake" für internationale Provokationen

Das amerikanische Technologieunternehmen NVIDIA teilte kürzlich die Ergebnisse eines generativ-wettbewerbsorientierten Netzwerks mit, das darauf trainiert ist, eigene Bilder von Menschen ("falsche Menschen") zu generieren. Innerhalb von Sekunden erstellt das neuronale Netzwerk hochauflösende Bilder der Gesichter nicht existierender Personen, kann alle kulturellen und ethnischen Merkmale, Emotionen und Stimmungen hinzufügen und basiert auf einer endlosen Sammlung von Bildern realer Gesichter. In Zukunft ist es möglich, dass diese Erfahrung von anderen Entwicklern wiederholt wird. Gleichzeitig können solche Bilder von Kriminellen für alle Arten von Provokationen verwendet werden, die nur von einer Gesellschaft mit systemischem polytechnischem Wissen erkannt werden können.

„Die Deepfake-Technologie kann das Bild und die Stimme einer Person synthetisieren. Es wurde bereits damit begonnen, Videobilder von führenden Persönlichkeiten der Welt zu erstellen, darunter US-Präsident Donald Trump und der russische Präsident Wladimir Putin. Deepfake-Videos können das Verhalten großer Zielgruppen manipulieren und können bei Informationen und psychologischen Konfrontationen (IPP) eingesetzt werden, um finanzielle Panik oder Krieg zu provozieren , sagte Evgeny Pashentsev, ein führender Forscher am Institut für zeitgenössische internationale Fragen der Diplomatischen Akademie des russischen Außenministeriums, Professor an der Moskauer Staatsuniversität, gegenüber der RIA Nowosti.

Die Stimmungsanalyse ist eine Klasse von Methoden zur Inhaltsanalyse in der Computerlinguistik, die zur automatisierten Erkennung emotional gefärbter Vokabeln und zur emotionalen Bewertung von Autoren in Texten entwickelt wurden. Die Stimmungsanalyse wird von einer Vielzahl von Quellen wie Blogs, Artikeln, Foren, Umfragen usw. bereitgestellt. Dies kann ein sehr effektives Werkzeug für APIs sein, was zum Beispiel durch das derzeitige große Interesse der Führung des US Special Operations Command an solchen Entwicklungen bestätigt wird. (Das United States Special Operations Command (SOCOM).

„Predictive Weapons“: Vorhersage des menschlichen Verhaltens anhand von Social Media-Daten

Im Jahr 2012 startete die US-amerikanische Advanced Intelligence Research Agency (IARPA) das EMBERS-Programm (Early Model-Based Event Recognition Using Surrogates). Der Zweck der Entwicklung ist die Vorhersage von Unruhen auf der Grundlage des Einsatzes von KI mit der Bestimmung von Datum, Ort und protestierender Bevölkerungsgruppe.

Das System verarbeitet Daten aus Medien und sozialen Netzwerken sowie Quellen höherer Qualität, beispielsweise Wirtschaftsindikatoren. Der Fall solcher Programme in die Hände von Terroristen ist natürlich auch äußerst gefährlich. In diesem Fall können größere Terroranschläge während der größten sozialen Demonstrationen zu einer wahrscheinlichen Bedrohung werden. Ein zusätzliches Kriterium für die Auswahl der Ziele eines Terroranschlags kann der Grad der sozialen und psychologischen Spannung in bestimmten Bereichen sein.

Laut den Autoren der Studie können prädiktive Analysen als Gegenmaßnahme vom Staat und den supranationalen Behörden selbst eingesetzt werden, um soziale Spannungen zu verhindern (rechtzeitige Verabschiedung sozialer, wirtschaftlicher und politischer Maßnahmen zur Erreichung langfristiger Stabilität).

Darüber hinaus können terroristische Gruppen durch den Einsatz von Bots während politischer Kampagnen Reputationsschäden verursachen sowie neue Unterstützer gewinnen oder die Ermordung von Politikern organisieren.

Erfassung von Drohnen und Roboterinfrastruktur

Selbstlernende Transportsysteme mit KI-Kontrolle können bequeme Ziele für High-Tech-Terroranschläge sein. Die Übernahme der Kontrolle über das Verkehrskontrollsystem durch Terroristen in einer Großstadt kann zu zahlreichen Opfern führen, Panik auslösen und ein psychologisches Klima schaffen, das andere kriminelle Aktivitäten erleichtert.

Kommerzielle Systeme können verwendet werden, um unbemannte Luftfahrzeuge oder autonome Fahrzeuge einzusetzen, um Sprengstoff abzugeben und Unfälle zu verursachen. Eine Reihe schwerer Katastrophen kann in den internationalen Medien für Aufsehen sorgen und die Information und die psychologische Sicherheit erheblich schädigen.

Forscher der Russischen Präsidialakademie für Volkswirtschaft und öffentliche Verwaltung und der Diplomatischen Akademie des Außenministeriums der Russischen Föderation stützten ihre Forschung auf eine systematische Analyse der Rolle der KI im Sicherheitsbereich, eine Methode zur Szenarioanalyse, historische Analogien und Fallanalyse. Zusammen mit einem Kollegen der Universität Uppsala (Schweden), Greg Simons, wurden die Autoren der Studie Mitherausgeber des bevorstehenden Buches "Terrorismus und fortschrittliche Technologien in der Informations- und psychologischen Konfrontation: Neue Risiken, neue Möglichkeiten zur Bekämpfung der terroristischen Bedrohung" unter Beteiligung von Forschern aus 11 Ländern.

Auf Initiative russischer Forscher wird das Problem der Rolle der KI im Zusammenhang mit Bedrohungen der internationalen Information und der psychologischen Sicherheit aktiv diskutiert und auf internationalen Konferenzen und autonomen internationalen Forschungsseminaren erörtert. Darunter befindet sich eine Konferenz unter der Schirmherrschaft der Kommission der Russischen Föderation für die UNESCO und einer Reihe anderer russischer und internationaler Strukturen in Khanty-Mansiysk vom 9. bis 12. Juni. Die Gouverneurin des autonomen Khanty-Mansiysk Okrug Natalya Vladimirovna Komarova nahm aktiv an der Sitzung des Abschnitts über das Problem des böswilligen Einsatzes von KI teil, der mit Unterstützung des europäisch-russischen Expertennetzwerks für Kommunikationsmanagement (ERESKM) gebildet wurde. In Zukunft ist dies das IV. Iberoamerikanische Forum in St. Petersburg vom 1. bis 3. Oktober 2019,Europäische Konferenz über die Auswirkungen künstlicher Intelligenz und Robotik 31. Oktober - 1. November 2019. Die Autoren der Studien haben wissenschaftliche Berichte in Argentinien, Uruguay, Brasilien, Südafrika und Italien vorgelegt.

Nach Ansicht von Fachleuten der RANEPA und der Diplomatischen Akademie ist es auf russischer Ebene äußerst wichtig, die Bildung langfristiger Zielprogramme zu etablieren, da das Problem der KI und der internationalen Informations- und psychologischen Sicherheit ein Problem für die nahe Zukunft ist.