Kampfroboter Kommen! - Alternative Ansicht

Kampfroboter Kommen! - Alternative Ansicht
Kampfroboter Kommen! - Alternative Ansicht

Video: Kampfroboter Kommen! - Alternative Ansicht

Video: Kampfroboter Kommen! - Alternative Ansicht
Video: Производство доспехов в Европе 15-16вв (Док.М.Пфаффенбихлер) Часть2 2024, Kann
Anonim

Echte Killerroboter, die die Aufgabe unermüdlich ausführen und keine menschliche Aufsicht erfordern, könnten in einem Jahr im Arsenal der Armeen der Welt erscheinen, sagen Experten. Experten nehmen die Gefahr hier vorweg und diskutieren, ob Killerroboter und deren Einsatz auf dem Schlachtfeld im Voraus verboten werden sollten.

Image
Image

Killerroboter könnten in einem Jahr bei den Truppen im Einsatz sein, wenn die UN nicht im Voraus Maßnahmen ergreift, um ihren Einsatz einzuschränken, sagt Noel Sharkey, Professor an der Sheffield University. Seiner Meinung nach werden diese Maschinen unvermeidlich massive unschuldige Todesfälle verursachen, da sie einen Militärmann nicht von einem zivilen Nichtkämpfer unterscheiden können. Seine Erklärung kam gerade zu der Zeit, als die Expertengemeinschaft aus 120 Ländern in Genf die potenziellen Risiken diskutiert, die mit dem Betrieb autonomer Waffensysteme verbunden sind. Professor Sharkey glaubt: Es gibt nur wenige Diskussionen, es ist dringend erforderlich, ein Dokument zur Begrenzung der Produktion von Robotern anzunehmen! Andernfalls, ein Jahr später, werden Roboter die Armeen der Industrieländer buchstäblich überfluten.

Image
Image

In diesen Tagen diskutieren Vertreter von mehr als 90 Ländern der Welt in Genf die Gefahr, die von "tödlichen autonomen Waffensystemen" ausgeht. Eine der wichtigsten Diskussionsfragen ist, wie die Sicherheit ihres Einsatzes in einer Kampfsituation gewährleistet werden kann. Viele Experten, einschließlich Professor Sharkey, bestehen darauf, dass eine Person trotz der Autonomie der Systeme ständig die Fähigkeit haben muss, sie "prinzipiell zu kontrollieren" - für die Sicherheit der Menschheit. „Ein Roboter kann immer noch keine Entscheidungen wie ein Mensch treffen“, sagt Professor Sharkey. - Er ist nicht ganz in der Lage. Um die Logik der Feindseligkeiten zu verstehen, darf man einen Verbündeten nicht von einem Feind unterscheiden und über die Zulässigkeit bestimmter Handlungen entscheiden. „Wir können den Roboter nicht entscheiden lassen, ob sich zum Beispiel Osama bin Ladens Leben lohnt, so dass 50 alte Frauen und 20 Kinder mit ihm sterben. Sagt Sharkey. - Dem Roboter ist das egal. Grundlegende Entscheidungen zum Beispiel über die Wahl eines Ziels müssen von einer Person getroffen werden. " Laut Professor Sharkey werden "die Folgen ihres Einsatzes nicht weniger verheerend sein als der Einsatz chemischer Waffen", wenn solche Entscheidungen den Robotern überlassen werden.

Image
Image

Professor Sharkey ist einer von 57 Experten, die einen offenen Brief an die Universität von Südkorea unterzeichnet haben, in dem Experten gegen das Programm zur Entwicklung intelligenter Waffen protestieren. Das koreanische Institut für Wissenschaft und Hochtechnologie Kaist startet derzeit das Programm mit dem Hersteller von Militärausrüstung Hanwa Systems, und die Nachricht hat die wissenschaftliche Gemeinschaft erschüttert. "Eine Universität, eine wissenschaftliche Einrichtung, kann dies aus moralischer Sicht nicht tun", sagt Professor Sharkey, dem die anderen Unterzeichner voll und ganz zustimmen.

Experten zufolge werden automatische Killerroboter die Büchse der Pandora öffnen und den Weg des Krieges revolutionieren.

Werbevideo:

Vertreter des Kaist-Instituts haben bereits auf den offenen Brief geantwortet und ihren Kollegen versichert, dass sie nicht vorhaben, Droiden im Skynet-Stil zu erschaffen.

Image
Image

Vertreter des Keist-Instituts versicherten ihren Kollegen, dass sie als akademische Einrichtung „universelle Standards für Ethik und Moral hoch schätzen“und nicht beabsichtigen, Robotersoldaten zu entwickeln, die außerhalb menschlicher Kontrolle operieren. Bisher forscht das Kaist-Institut nur in diesem Bereich. In diesem Zusammenhang beruhigten sich die Autoren des offenen Briefes und boykottierten ihre Kollegen nicht. Die Frage, ob sich die Menschheit auf die allgemeinen Prinzipien der totalen Kontrolle über die Aktionen von Kampfrobotern einigen kann, ist jedoch noch offen. Mittlerweile ist es heute theoretisch keineswegs wichtig. Hochfunktionale Roboter sind bereits heute so komplexe Mechanismen, dass selbst Spezialisten die Funktionsweise ihrer künstlichen Intelligenz nicht vollständig verstehen. Und ohne dies vollständig zu verstehen, können sie es nicht vorhersagenwann genau kann es scheitern. „Wenn die Menschheit zerstört werden soll, wird höchstwahrscheinlich künstliche Intelligenz eine wichtige Rolle in diesem Prozess spielen“, sagt einer der Teilnehmer der Konferenz in Genf. Laut Elon Musk birgt künstliche Intelligenz heute mehr Bedrohungen für die Menschheit als Nordkorea. Musk ist überzeugt, dass Roboter unter ständiger strenger Kontrolle des Menschen stehen sollten, und hat wiederholt an die Regierungen verschiedener Länder appelliert, klare Regeln für die Kontrolle über Systeme mit künstlicher Intelligenz zu entwickeln.als Nordkorea. Musk ist überzeugt, dass Roboter unter ständiger strenger Kontrolle des Menschen stehen sollten, und hat wiederholt an die Regierungen verschiedener Länder appelliert, klare Regeln für die Kontrolle über Systeme mit künstlicher Intelligenz zu entwickeln.als Nordkorea. Musk ist überzeugt, dass Roboter unter ständiger strenger Kontrolle des Menschen stehen sollten, und hat wiederholt an die Regierungen verschiedener Länder appelliert, klare Regeln für die Kontrolle über Systeme mit künstlicher Intelligenz zu entwickeln.

Varvara Lyutova