Roboter Können Uns Im Virtuellen Kampf übertreffen - Alternative Ansicht

Inhaltsverzeichnis:

Roboter Können Uns Im Virtuellen Kampf übertreffen - Alternative Ansicht
Roboter Können Uns Im Virtuellen Kampf übertreffen - Alternative Ansicht

Video: Roboter Können Uns Im Virtuellen Kampf übertreffen - Alternative Ansicht

Video: Roboter Können Uns Im Virtuellen Kampf übertreffen - Alternative Ansicht
Video: 10 Rollenspiele mit viel Action, die noch fast keiner kennt! 2024, Kann
Anonim

Der Autor ist besorgt über die wachsende Rolle von Robotern in der Kriegsführung. Seit 1991, seit dem Golfkrieg, helfen sie den Generälen. Und jetzt wurde ein "Killerroboter" geschaffen - eine Maschine, die unabhängig entscheidet, Feinde zu vernichten, wenn dies mit der allgemeinen Politik des "Kontrollzentrums" vereinbar ist.

Der Entwickler von künstlicher Intelligenz, DeepMind, hat eine Neuheit angekündigt - einen Bot namens AlphaStar, der die beliebte Online-Strategie Starcraft-2 auf Großmeisterebene spielen wird.

Dies ist nicht das erste Mal, dass ein Bot Menschen in einem strategischen Kriegsspiel schlägt. 1981 gewann ein Programm namens Eurisko, das von einem der Pioniere der künstlichen Intelligenz, Doug Lenat, entwickelt wurde, die US Traveller Championship, ein hochkomplexes strategisches Kriegsspiel, bei dem der Spieler seine eigene Flotte vervollständigen und gegen die feindliche Flotte kämpfen muss. Eurisko wurde schließlich der Titel eines Ehrenadmiralreisenden verliehen. 1982 wurden die Turnierregeln geändert, um den Computer zu vereiteln. Aber Eurisko hat zwei Jahre hintereinander alle gewonnen. Nachdem die Sponsoren versprochen hatten, das Turnier abzusagen, falls der Computer erneut gewinnt, zog sich Lenat zurück.

DeepMind PR möchte, dass Sie glauben, dass StarCraft "im Konsens als nächste große Herausforderung (in PC-Spielen) entstanden ist" und "seit über 15 Jahren eine Herausforderung für KI-Entwickler ist".

In der letzten Starcraft-Meisterschaft wurden nur 4 Bewerbungen von akademischen oder industriellen Forschungslabors eingereicht. Die anderen neun Bots wurden alleine von Einzelpersonen geschrieben und nicht als Teil des Mainstreams der Forschung zur künstlichen Intelligenz (KI).

Tatsächlich ist die Anzahl der Autoren (42) des DeepMind-Artikels, der am 31. Oktober in Nature veröffentlicht wurde, deutlich höher als die Anzahl der Personen, die im Rest der Welt an Starcraft-Bots arbeiten. Ich möchte den Erfolg dieser technischen Zusammenarbeit nicht überschatten, aber wenn Sie genügend Ressourcen in die Lösung des Problems investieren, ist der Erfolg garantiert.

Im Gegensatz zu den jüngsten Siegen im Computerschach wurde AlphaStar nicht durch Spielen gegen sich selbst trainiert. Er lernte dies, indem er die besten Episoden aus fast einer Million Spielen imitierte, die von den besten menschlichen Spielern gespielt wurden. Zuvor hatte AlphaStar in 19 von 20 Kämpfen eine unbestreitbare Niederlage erlitten, als er mit echten Menschen auf dem StarCraft-Spieleserver spielte. AlphaStar spielte anonym, um zu verhindern, dass Leute Schwächen ausnutzen, die in früheren Spielen gefunden wurden.

Im vergangenen Dezember besiegte AlphaStar einen der weltbesten Profispieler - Grzegorz MaNa Komincz. Aber es war eine Version von AlphaStar mit Reflexen, die deutlich schneller als die menschlichen waren, und mit unbegrenzter Sicht auf das Spielfeld (im Gegensatz zu menschlichen Spielern, die jeweils nur einen Teil davon sehen). Es kann kaum als gleiche Wettbewerbsbedingungen bezeichnet werden.

Werbevideo:

StarCraft verfügt jedoch über einige Funktionen, die AlphaStar zu einer beeindruckenden Entwicklung machen, wenn nicht sogar zu einem echten Durchbruch. Im Gegensatz zu Schach oder dem östlichen Go-Spiel (einem Strategiespiel, bei dem ein Brett mit 361 Feldern verwendet wird) haben StarCraft-Spieler ein unvollständiges Verständnis des Sachverhalts im Spiel, aber die Anzahl der möglichen Aktionen ist viel größer. Der StarCraft-Kampf findet in Echtzeit statt, erfordert jedoch eine langfristige Planung.

Roboterkriege

Es stellt sich die Frage: Werden wir in Zukunft sehen, wie Roboter nicht nur an Kriegen teilnehmen, sondern diese auch planen? In der Tat passieren beide bereits.

Trotz vieler Warnungen von Forschern der künstlichen Intelligenz (wie mir), Gründern von Robotikunternehmen, Nobelpreisträgern und Kirchenführern wurde bereits eine vollständig autonome Waffe entwickelt, die als "Killerroboter" bekannt ist und bald eingesetzt wird.

Im Jahr 2020 wird die Türkei Kamikaze-Drohnen an der Grenze zu Syrien einsetzen. Diese Drohnen verwenden Computer Vision, um Menschen ohne menschliches Eingreifen zu identifizieren, zu verfolgen und zu töten.

Dies ist eine schreckliche Entwicklung. Computer haben nicht die moralische Fähigkeit, eine moralisch ausgewogene Entscheidung darüber zu treffen, wer leben und wer sterben wird. Ihnen fehlt Empathie oder Mitgefühl. Killerroboter werden die Natur von Konflikten zum Schlechten wenden.

Was ist mit "Roboter-Generälen"? Computer helfen Generälen seit Jahrzehnten bei der Kriegsplanung. In den frühen neunziger Jahren, während der Operation Desert Storm während des Golfkrieges, wurden Werkzeuge der künstlichen Intelligenz (KI) verwendet, um einen Aufbau im Nahen Osten vor dem Konflikt zu planen. Ein US-General sagte mir kurz danach, dass der eingesparte Geldbetrag der Summe von allem entspricht, was zuvor für die KI-Entwicklung ausgegeben worden war.

Generäle verwenden Computer auch, um multivariate militärische Strategien zu entwickeln, die plötzlich benötigt werden könnten. Wir überlassen jedoch nicht alle Entscheidungen auf dem Schlachtfeld einem Soldaten. Daher geht es zu weit, die gesamte Verantwortung vom Gehirn des Generals auf den Computerprozessor zu verlagern.

Die Maschine kann nicht für ihre Entscheidungen zur Verantwortung gezogen werden. Nur Menschen sind verantwortlich. Und dies ist der Eckpfeiler des humanitären Völkerrechts. Generäle werden sich jedoch bei ihren Entscheidungen, den Nebel des Krieges zu durchbrechen und mit der enormen Menge an Informationen von vorne umzugehen, zunehmend auf Computerunterstützung verlassen.

Wenn dies zu weniger zivilen Opfern, weniger freundlichem Feuer und größerer Achtung des humanitären Völkerrechts führt, sollten wir eine solche Computerunterstützung begrüßen. Aber die endgültige Entscheidung muss vom Menschen getroffen werden, nicht von der Maschine.

Hier ist eine letzte Frage zum Nachdenken. Wenn Tech-Unternehmen wie Google wirklich nicht wollen, dass wir einen Maschinenaufstand fürchten, warum bauen sie dann Bots, um virtuelle Kriege zu gewinnen, anstatt sich auf etwas friedlicheres wie friedliche elektronische Spiele zu konzentrieren? Bei allem Respekt gegenüber Sportfans müssen wir zugeben, dass die Einsätze bei Nichtkriegsspielen viel geringer ausfallen.

Toby Walsh ist Professor für künstliche Intelligenz an der University of New South Wales und der Data61-Forschungsgemeinschaft.

Empfohlen: