Wissenschaftler Haben Erklärt, Wie Ein Wettrüsten Zu Einem "Krieg Im Terminator-Stil" Führen Wird - Alternative Ansicht

Wissenschaftler Haben Erklärt, Wie Ein Wettrüsten Zu Einem "Krieg Im Terminator-Stil" Führen Wird - Alternative Ansicht
Wissenschaftler Haben Erklärt, Wie Ein Wettrüsten Zu Einem "Krieg Im Terminator-Stil" Führen Wird - Alternative Ansicht

Video: Wissenschaftler Haben Erklärt, Wie Ein Wettrüsten Zu Einem "Krieg Im Terminator-Stil" Führen Wird - Alternative Ansicht

Video: Wissenschaftler Haben Erklärt, Wie Ein Wettrüsten Zu Einem
Video: Die Weltordnung nach dem Kalten Krieg I Fukuyama und Huntington einfach erklärt 2024, April
Anonim

In einem neuen Bericht sprachen Experten der Cornell University laut Daily Mail über die Risiken, die mit der zunehmend aktiven Einführung künstlicher Intelligenz in Atomwaffen verbunden sind. Laut Wissenschaftlern können Maschinen "außer Kontrolle geraten" und einen "apokalyptischen Krieg" provozieren, so dass die Hauptentscheidungen beim Einsatz von Atomwaffen immer noch besser der Person überlassen bleiben.

Wissenschaftler warnen davor, dass die Übertragung der Kontrolle über Atomwaffen auf künstliche Intelligenz in einem apokalyptischen Krieg im "Terminator-Stil" enden könnte.

In ihrem neuen Bericht argumentieren Experten der amerikanischen Ivy League Cornell University, dass eine zunehmende Verlagerung in Richtung Automatisierung und Robotisierung dazu führen könnte, dass Maschinen "außer Kontrolle geraten" und der Menschheit den Krieg erklären - genau wie in einer Reihe von Science-Fiction-Filmen Filme "Terminator" mit Arnold Schwarzenegger.

Experten zufolge verlassen sich Russland und China zunehmend auf Technologien der künstlichen Intelligenz, die in Zukunft Risiken bergen können, die der Welt nicht einmal bekannt sind. So hat Moskau bereits mit den Arbeiten am unbemannten Unterwassertorpedo Poseidon begonnen, der früher als Status-6 bekannt war.

Darüber hinaus könnten Länder beschließen, künstliche Intelligenz in Frühwarnsystemen aktiver einzusetzen. Und hier zeigt uns die Geschichte, wie die Wissenschaftler erinnern, dass die Risiken auch groß sein können. Viele Menschen kennen den Vorfall von 1983, als der sowjetische Offizier Stanislav Petrov das Signal des Systems zum Abschuss amerikanischer Raketen ignorierte. Petrov erkannte, dass das Signal falsch war und rettete damit die Welt vor einem möglichen Atomkrieg zwischen den Vereinigten Staaten und Russland.

Experten erkennen an, dass die Computerisierung von Atomwaffen in irgendeiner Form die Zuverlässigkeit und Stabilität solcher Systeme verbessern kann. Künstliche Intelligenz kann Daten sammeln und Analysen durchführen, die dann von Militärführern verwendet werden können.

"Bei der Modernisierung von Nukleararsenalen sollte sich die Führung bemühen, Computersysteme einzusetzen, um das Risiko von Unfallunfällen und Fehlalarmen zu verringern und die menschliche Kontrolle über Nuklearwaffenoperationen zu verbessern", empfehlen die Wissenschaftler.

Empfohlen: