Bis 2040 Kann Künstliche Intelligenz Die Prinzipien Der Nuklearen Sicherheit Revolutionieren - Alternative Ansicht

Bis 2040 Kann Künstliche Intelligenz Die Prinzipien Der Nuklearen Sicherheit Revolutionieren - Alternative Ansicht
Bis 2040 Kann Künstliche Intelligenz Die Prinzipien Der Nuklearen Sicherheit Revolutionieren - Alternative Ansicht

Video: Bis 2040 Kann Künstliche Intelligenz Die Prinzipien Der Nuklearen Sicherheit Revolutionieren - Alternative Ansicht

Video: Bis 2040 Kann Künstliche Intelligenz Die Prinzipien Der Nuklearen Sicherheit Revolutionieren - Alternative Ansicht
Video: Wie optimiert sich KI selbst? | Norio 2024, Kann
Anonim

Eine kürzlich veröffentlichte Studie der RAND Corporation kam zu dem Schluss, dass künstliche Intelligenz (KI) das Konzept der nuklearen Abschreckung bis 2040 radikal verändern könnte.

Eine KI-gesteuerte "Doomsday-Maschine" scheint unwahrscheinlich, aber die wirklichen Risiken der KI für die nukleare Sicherheit liegen in der Fähigkeit der KI, Menschen zu ungerechtfertigten, möglicherweise apokalyptischen Entscheidungen zu bewegen.

Während des Kalten Krieges hielt das Konzept der gesicherten gegenseitigen Zerstörung einen wackeligen Frieden zwischen den Supermächten aufrecht und argumentierte, dass jeder Angriff zu verheerenden Vergeltungsmaßnahmen führen würde. Infolgedessen sorgte das HLG-Konzept für strategische Stabilität und wirkte auf beiden Seiten ernüchternd auf Maßnahmen, die sich tatsächlich zu einem Atomkrieg entwickeln könnten.

Die RAND-Veröffentlichung besagt, dass die KI in den kommenden Jahrzehnten durchaus in der Lage ist, das Konzept der gesicherten gegenseitigen Zerstörung zu zerstören und damit die strategische Stabilität unserer Welt zu untergraben. Anspruchsvollere Sensoren machen es wahrscheinlich, dass "Vergeltungswaffen" - zum Beispiel Atom-U-Boote und mobile Raketen - identifiziert und zerstört werden können.

Nationen könnten versucht sein, Erstschlag-Vermögenswerte zu suchen, als wäre dies ein Vorteil gegenüber ihren Rivalen, selbst wenn sie nicht die Absicht haben, zuerst zu streiken. Dies untergräbt die Stabilität, da selbst wenn die Seite, die zuerst angreifen kann, diese Gelegenheit nicht nutzen wird, der Gegner sich dessen nicht sicher sein kann.

"Die Verbindung zwischen Atomkrieg und KI ist nicht neu, tatsächlich sind die Geschichten miteinander verflochten", sagt Edward Geist, Co-Autor des Artikels und bei RAND. "Anfangs wurde ein Großteil der KI-Forschung mit Unterstützung des Militärs durchgeführt, um ihre Ziele zu erreichen."

Als Beispiel führte er ein in den 1980er Jahren durchgeführtes "adaptives geplantes Überlebensexperiment" an, das darauf abzielte, mithilfe von KI Intelligenz mit dem Zielen auf Atomwaffen zu kombinieren.

Im Falle von Unsicherheit könnte die KI die Stabilität der strategischen Situation verbessern, indem sie die Genauigkeit der gesammelten Informationen und ihrer Analyse verbessert.

Werbevideo:

Die Forscher glauben, dass die KI im Entwicklungsprozess im Vergleich zum Menschen weniger fehleranfällig sein wird, was bedeutet, dass sie langfristig ein Stabilitätsfaktor sein wird.

Vadim Tarabarko

Empfohlen: