Killerroboter? Hör Auf, Selbst Gute Roboter Sind Furchtbar Unvorhersehbar - Alternative Ansicht

Inhaltsverzeichnis:

Killerroboter? Hör Auf, Selbst Gute Roboter Sind Furchtbar Unvorhersehbar - Alternative Ansicht
Killerroboter? Hör Auf, Selbst Gute Roboter Sind Furchtbar Unvorhersehbar - Alternative Ansicht

Video: Killerroboter? Hör Auf, Selbst Gute Roboter Sind Furchtbar Unvorhersehbar - Alternative Ansicht

Video: Killerroboter? Hör Auf, Selbst Gute Roboter Sind Furchtbar Unvorhersehbar - Alternative Ansicht
Video: WEIBLICHER ROBOTER SAGTE, SIE WOLLE DIE MENSCHEN VERNICHTEN 2024, Oktober
Anonim

Die Führungskräfte von mehr als hundert der weltweit führenden Unternehmen für künstliche Intelligenz sind sehr besorgt über die Entwicklung von "Killerrobotern". In einem offenen Brief an die Vereinten Nationen warnten diese Wirtschaftsführer, darunter Elon Musk von Tesla und die Gründer von Googles DeepMind, dass der Einsatz autonomer Waffentechnologie von Terroristen und Despoten übernommen oder mehr oder weniger gehackt werden könnte.

Die wirkliche Bedrohung ist jedoch viel schwerwiegender - und es handelt sich nicht nur um menschliches Fehlverhalten, sondern auch um maschinelle Missetaten. Die Untersuchung komplexer Systeme zeigt, dass sie sich viel unvorhersehbarer verhalten können, als aus der Summe der einzelnen Aktionen abgeleitet werden kann. Einerseits bedeutet dies, dass sich die menschliche Gesellschaft ganz anders verhalten kann, als Sie es erwarten könnten, wenn Sie das Verhalten von Individuen untersuchen. Gleiches gilt für die Technik. Selbst Ökosysteme einfacher Programme für künstliche Intelligenz - die wir dumme, gute Bots nennen - können uns überraschen. Sogar einzelne Bots können sich schrecklich verhalten.

Die einzelnen Elemente, aus denen komplexe Systeme bestehen, wie z. B. Wirtschaftsmärkte oder globales Wetter, interagieren in der Regel nicht einfach linear. Dies macht es sehr schwierig, diese Systeme zu modellieren und zu verstehen. Zum Beispiel ist es auch nach Jahren der Klimaforschung unmöglich, das langfristige Verhalten des Wetters vorherzusagen. Diese Systeme reagieren ebenso empfindlich auf kleinste Veränderungen wie explosionsartig. Es ist sehr schwierig, den genauen Zustand eines solchen Systems zu einem bestimmten Zeitpunkt zu kennen. All dies macht diese Systeme intern unvorhersehbar.

Alle diese Prinzipien gelten für große Gruppen von Menschen, die auf ihre eigene Weise handeln, sei es in menschlichen Gesellschaften oder in Gruppen von KI-Bots. Wissenschaftler haben kürzlich eine Art komplexes System untersucht, bei dem gute Bots verwendet wurden, um Wikipedia-Artikel automatisch zu bearbeiten. Diese verschiedenen Bots werden von vertrauenswürdigen Wikipedia-Redakteuren entworfen, geschrieben und verwendet. Die zugrunde liegende Software ist Open Source und für alle verfügbar. Individuell haben sie ein gemeinsames Ziel, die Enzyklopädie zu verbessern. Ihr kollektives Verhalten erwies sich jedoch als überraschend unwirksam.

Gut etablierte Regeln und Konventionen bilden den Kern der Funktionsweise dieser Bots auf Wikipedia. Da die Website jedoch kein zentrales Kontrollsystem hat, gibt es keine effektive Koordination zwischen den Personen, die die verschiedenen Bots ausführen. Die Ergebnisse zeigten ein paar Bots, die die Änderungen des anderen für mehrere Jahre stornierten, und niemand bemerkte es. Und da diese Bots überhaupt nicht lernen, haben sie es natürlich auch nicht bemerkt.

Diese Bots sollen den Bearbeitungsprozess beschleunigen. Kleine Unterschiede im Design von Bots oder zwischen den Personen, die sie verwenden, könnten jedoch zu einer massiven Verschwendung von Ressourcen in einem andauernden "Editierkrieg" führen, der von den Redakteuren viel schneller gelöst werden könnte.

Die Forscher fanden auch heraus, dass sich Bots in verschiedenen Sprachversionen von Wikipedia unterschiedlich verhielten. Die Regeln scheinen fast gleich zu sein, die Ziele sind identisch, die Technologien sind ähnlich. In der deutschsprachigen Wikipedia war die Bot-Zusammenarbeit jedoch viel effizienter und produktiver als beispielsweise in Portugiesisch. Dies kann nur durch die Unterschiede zwischen den menschlichen Editoren erklärt werden, die diese Bots in verschiedenen Umgebungen ausgeführt haben.

Werbevideo:

Exponentielle Verwirrung

Bots von Wikipedia haben keine große Autonomie und das System funktioniert nicht mehr in Übereinstimmung mit den Zielen einzelner Bots. Die Wikimedia Foundation plant jedoch die Verwendung von KI, die diesen Bots mehr Autonomie verleiht. Und dies wird wahrscheinlich zu einem noch unvorhersehbareren Verhalten führen.

Ein gutes Beispiel dafür, was passieren kann, sind Bots, die entwickelt wurden, um mit Menschen zu sprechen, wenn sie gezwungen sind, miteinander zu kommunizieren. Wir sind nicht länger überrascht von den Antworten persönlicher Assistenten wie Siri. Aber bringen Sie sie dazu, miteinander zu kommunizieren, und sie werden sich schnell auf unerwartete Weise verhalten, streiten und sich sogar gegenseitig beleidigen.

Je größer das System wird und je autonomer jeder Bot wird, desto komplexer und unvorhersehbarer wird das zukünftige Verhalten dieses Systems. Wikipedia ist ein Beispiel für eine große Anzahl relativ einfacher Bots bei der Arbeit. Das Chatbot-Beispiel ist ein Beispiel für eine kleine Anzahl relativ komplexer und erfinderischer Bots - in beiden Fällen entstehen unvorhergesehene Konflikte. Die Komplexität und damit die Unvorhersehbarkeit nimmt exponentiell zu, wenn dem System Persönlichkeit hinzugefügt wird. Wenn daher in Zukunft Systeme mit einer großen Anzahl sehr komplexer Roboter auftauchen, wird ihre Unvorhersehbarkeit über unsere Vorstellungskraft hinausgehen.

Flammender Wahnsinn

Selbstfahrende Autos beispielsweise versprechen einen Durchbruch bei Effizienz und Verkehrssicherheit. Aber wir wissen noch nicht, was passieren wird, wenn wir ein großes wildes System voll autonomer Fahrzeuge haben. Sie können sich auch innerhalb einer kleinen Flotte einzelner Fahrzeuge in einer kontrollierten Umgebung unterschiedlich verhalten. Und noch unvorhersehbareres Verhalten kann sich manifestieren, wenn selbstfahrende Autos, die von verschiedenen Menschen an verschiedenen Orten "trainiert" werden, miteinander interagieren.

Menschen können sich relativ schnell an neue Regeln und Konventionen anpassen, haben jedoch Schwierigkeiten, zwischen Systemen zu wechseln. Künstliche Mittel können noch schwieriger sein. Wenn beispielsweise ein in Deutschland „geschultes“Auto nach Italien fährt, wissen wir nicht, wie es die ungeschriebenen kulturellen Konventionen beherrscht, denen viele andere „in Italien trainierte“Autos folgen. Etwas Alltägliches wie das Überqueren einer Kreuzung kann tödlich riskant werden, weil wir einfach nicht wissen, ob die Autos wie erwartet interagieren oder sich unvorhersehbar verhalten.

Denken Sie jetzt an die Killerroboter, die Musk und seine Kollegen belästigen. Ein Killerroboter kann in den falschen Händen sehr gefährlich sein. Was ist mit dem System unvorhersehbarer Killerroboter? Denke selbst.

Ilya Khel