Wie Schafft Man Einen Roboter, Der Die Welt Verändern Will? - Alternative Ansicht

Inhaltsverzeichnis:

Wie Schafft Man Einen Roboter, Der Die Welt Verändern Will? - Alternative Ansicht
Wie Schafft Man Einen Roboter, Der Die Welt Verändern Will? - Alternative Ansicht

Video: Wie Schafft Man Einen Roboter, Der Die Welt Verändern Will? - Alternative Ansicht

Video: Wie Schafft Man Einen Roboter, Der Die Welt Verändern Will? - Alternative Ansicht
Video: WEIBLICHER ROBOTER SAGTE, SIE WOLLE DIE MENSCHEN VERNICHTEN 2024, September
Anonim

Der Informatiker Christoph Solge versucht, die Notwendigkeit von Regeln zu beseitigen, die das Verhalten von Robotern regeln. Seine Strategie ist es, ihnen ein Ziel zu geben: uns mächtiger zu machen. Christophe arbeitet im Game Innovation Lab der New York University. Sasha Maslov interviewte Sold for Quanta Magazine, aus dem wir erfahren, dass wir es möglicherweise nicht wert sind, den unaufhaltsamen Fluss der technologischen Singularität aufzuhalten.

Isaac Asimovs berühmte Drei Gesetze der Robotik - die das Verhalten von Androiden und Automaten einschränken, um die Sicherheit der Menschheit zu gewährleisten - waren ebenfalls unvollendet. Diese Gesetze tauchten zuerst in Asimovs Geschichte im Jahr 1942 und dann in klassischen Werken wie "I, Robot" auf und klingen ungefähr so:

1. Ein Roboter kann einer Person keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einer Person Schaden zugefügt wird.

2. Der Roboter muss den Anweisungen des Menschen Folge leisten, wenn diese nicht dem Ersten Gesetz widersprechen.

3. Ein Roboter muss seine Existenz verteidigen, wenn dieser Schutz nicht dem ersten oder zweiten Gesetz widerspricht.

Natürlich kann man in diesen Gesetzen viele Widersprüche und Lücken finden (die tatsächlich von Azimov selbst benutzt wurden). In unserer heutigen Zeit fortschrittlicher Software mit maschinellem Lernen und autonomer Robotik ist die Definition und Implementierung der Eisenethik der künstlichen Intelligenz zu einer dringenden Herausforderung für Organisationen wie das Machine Intelligence Research Institute und OpenAI geworden.

Christoph Salge verfolgte einen anderen Ansatz. Anstatt philosophische Definitionen von oben nach unten aufzuerlegen, wie sich künstliche Wirkstoffe verhalten sollen oder nicht, untersuchen Salge und sein Kollege Daniel Polani den Bottom-up-Pfad oder „was der Roboter zuerst tun sollte“, wie sie geschrieben haben in seinem Artikel "Empowerment als Ersatz für die drei Gesetze der Robotik". Empowerment, ein Konzept, das an der Schnittstelle von Kybernetik und Psychologie geboren wurde, beschreibt die intrinsische Motivation eines Agenten, gleichzeitig Widerstand zu leisten und in der Umwelt zu arbeiten. „Als Organismus will er überleben. Er will die Welt prägen “, erklärt Salge. Der Staubsauger von Roomba, der so programmiert ist, dass er bei schwachen Batterien nach einer Ladestation sucht, ist ein rudimentäres Beispiel für "Empowered": weiterhin in der Welt funktionieren,er muss eine Anklage erhalten und seine eigene Existenz fortsetzen, dh überleben.

Empowerment mag wie ein Rezept für das Ergebnis klingen, das Befürworter einer sicheren künstlichen Intelligenz wie Nick Bostrom befürchten: ein mächtiges autonomes System, das sich nur mit Eigeninteresse befasst und dabei verrückt wird. Aber Salge, der die sozialen Interaktionen zwischen Mensch und Maschine untersucht, fragt: Was ist, wenn ein ermächtigter Agent „auch einen anderen befähigt? Der Roboter muss nicht nur funktionsfähig bleiben, sondern auch seinen menschlichen Partner unterstützen wollen."

Werbevideo:

Solge und Polanyi erkannten, dass die Informationstheorie eine Möglichkeit bot, diese gegenseitige Erweiterung in einen mathematischen Rahmen für einen nicht philosophierenden künstlichen Agenten zu übersetzen. „Einer der Nachteile der drei Gesetze der Robotik besteht darin, dass sie sprachbasiert sind und die Sprache sehr vieldeutig ist“, sagt Salge. "Wir versuchen etwas zu finden, das tatsächlich getan werden kann."

Einige Technologen glauben, dass KI eine große, sogar katastrophale Bedrohung für die menschliche Existenz darstellt. Und Sie?

Ich werde es unterlassen. Ich glaube wirklich, dass es jetzt Angst vor Robotern und dem wachsenden Einfluss der KI gibt. Aber ich denke, kurzfristig werden wir uns wahrscheinlich mehr Sorgen über mögliche Arbeitsplatzwechsel, den Entscheidungsprozess, den Verlust der Demokratie und den Verlust der Privatsphäre machen. Ich weiß nicht, wie wahrscheinlich es ist, dass bald eine unaufhaltsame KI auftaucht. Aber selbst wenn die KI das Gesundheitssystem überwachen und Rezepte ausstellen soll, müssen wir über die damit verbundenen ethischen Fragen nachdenken.

Wie kann uns das Empowerment-Konzept helfen, diese Herausforderungen zu bewältigen?

Ich denke, die Idee, Rechte zu stärken, füllt eine Nische. Sie wird nicht zulassen, dass der Agent die Person sterben lässt, aber sobald Sie diese Schwelle einhalten können, wird sie die Absicht unterstützen, zusätzliche Möglichkeiten für die Person zu schaffen, die Welt auszudrücken und zu beeinflussen. In einem von Asimovs Büchern werden Roboter einfach alle Menschen in sichere Behälter bringen. Dies wäre unerwünscht. Wenn sich unsere Fähigkeit, die Welt zu beeinflussen, weiter verbessert, wird es meiner Meinung nach ein viel interessanteres Ziel sein, dieses Ziel zu erreichen.

Sie haben Ihre Ideen für virtuelle Agenten in einer Videospielumgebung getestet. Was ist passiert?

Der Agent, der durch seine erweiterten Rechte motiviert ist, weicht dem Projektil aus und fällt im Allgemeinen nicht in die Grube. Er vermeidet Situationen, die zu Mobilitätsverlust, Tod oder Beschädigung führen können, so dass seine Funktionsfähigkeit beeinträchtigt wird. Er wird einfach festhalten.

In Verbindung mit einem menschlichen Spieler, der auch über erweiterte Rechte verfügt, haben wir gesehen, dass der virtuelle Roboter einen bestimmten Abstand einhält, um die menschliche Bewegung nicht zu behindern. Er wird dich nicht blockieren, er wird nicht im Gang stehen, damit du nicht passieren kannst. Er wird so nah wie möglich bei Ihnen bleiben, um Ihnen zu helfen. Dies führt zu einem Verhalten, bei dem er sowohl die Initiative ergreifen als auch dem eines anderen folgen kann.

Zum Beispiel haben wir ein Szenario erstellt, in dem wir eine Lasersperre hatten, die für Menschen gefährlich, aber für einen Roboter sicher ist. Wenn sich die Person in diesem Spiel den Lasern nähert, hat der Roboter einen größeren Anreiz, den Laser zu blockieren. Der Reiz wird verstärkt, wenn die Person direkt vor der Barriere steht, als wollte sie diese überqueren. Und der Roboter blockiert tatsächlich den Laser und steht vor der Person.

Haben diese Agenten ein unbeabsichtigtes Verhalten gezeigt, das den drei Gesetzen in Asimovs Buch ähnelt?

Das Verhalten war zunächst gut. Zum Beispiel hat ein virtueller Roboter Gegner abgefangen, die versucht haben, dich zu töten. Von Zeit zu Zeit sprang er unter eine Kugel, wenn dies der einzige Weg war, dich zu retten. Was uns aber von Anfang an besonders überraschte, war, dass er auch große Angst vor der Person hatte.

Der Grund dafür liegt in seinem "kurzsichtigen" Modell: Tatsächlich analysiert er, wie Sequenzen bestimmter Aktionen in zwei oder drei Schritten die Welt beeinflussen können, sowohl für Sie als auch für ihn. Daher haben wir im ersten Schritt programmiert, dass der Spieler zufällig handelt. In der Praxis führte dies jedoch dazu, dass der Agent die Person als eine Art Psychopathen behandelte, der beispielsweise den Agenten jederzeit erschießen konnte. Daher musste der Agent sehr, sehr sorgfältig die Position auswählen, in der die Person ihn nicht töten konnte.

Wir mussten dies beheben und haben die sogenannte Vertrauensannahme modelliert. Grundsätzlich geht der Begleiter davon aus, dass die Person nur die Aktionen auswählt, die die erweiterten Rechte des Agenten selbst nicht einschränken - möglicherweise ist dies ein geeigneteres Modell für den Begleiter.

Wir haben auch festgestellt, dass es dem Begleiter egal ist, ob Sie acht oder neun dieser Punkte verloren haben, wenn Sie beispielsweise 10 Gesundheitspunkte im Spiel haben - er könnte Sie sogar einmal erschießen, nur zum Spaß. Und dann haben wir festgestellt, dass es eine Lücke zwischen der Welt, in der wir leben, und dem Modell in einem Computerspiel gibt. Sobald wir die durch den Gesundheitsverlust verursachte Kapazitätsbeschränkung modelliert hatten, verschwand das Problem. Es könnte auch gelöst werden, indem ein Modell erstellt wird, das nicht so kurzsichtig ist und Aktionen in ein paar Schritten in die Zukunft berechnen kann. Wenn der Agent weiter in die Zukunft schauen könnte, würde er sehen, dass mehr Gesundheitspunkte für zukünftige Ereignisse von Vorteil sein könnten.

Unter Berücksichtigung der Tatsache, dass das Ändern der Anzahl der Gesundheitspunkte meine erweiterten Rechte in keiner Weise beeinträchtigt, entscheidet der Agent: "Ich erschieße ihn, ich schieße nicht - was ist der Unterschied?" Und manchmal schießt es. Was natürlich ein Problem ist. Ich möchte keine zufälligen Schüsse auf Spieler. Wir haben eine Korrektur hinzugefügt, um den virtuellen Roboter ein wenig besorgter über Ihren Zustand zu machen als über seinen eigenen.

Wie machen Sie diese Konzepte richtig?

Wenn wir Agenten als Kontrollsysteme betrachten, können sie in Informationskomponenten zerlegt werden: In der Welt passiert etwas und auf die eine oder andere Weise geht Sie etwas an. Wir sprechen von Informationen nicht als Dinge, die Sie wahrnehmen, sondern als Einflüsse jeglicher Art - sie können eine Substanz sein, etwas, das zwischen der Welt und Ihnen fließt. Es kann Temperatur oder Nährstoffe in Ihrem Körper geben. Alles, was die Grenze zwischen der Welt und dem Agenten überschreitet, trägt Informationen in sich. Auf die gleiche Weise kann ein Agent die Außenwelt auf verschiedene Weise beeinflussen und auch Informationen in sie ausgeben.

Sie können diesen Stream als Bandbreite des Kanals betrachten, dies ist ein Konzept aus der Informationstheorie. Sie können weitreichende Befugnisse und erweiterte Rechte haben, wenn Sie verschiedene Maßnahmen ergreifen können, die zu unterschiedlichen Ergebnissen führen. Wenn etwas schief geht, verlieren Sie Ihre Autorität, da der Kapazitätsverlust einer quantitativen Verringerung der Bandbreite des Kanals zwischen Ihnen und der Umgebung entspricht. Dies ist die Hauptidee.

Wie viel muss ein Agent wissen, damit seine erweiterten Befugnisse ihre volle Wirkung entfalten können?

Erweiterte Rechte haben den Vorteil, dass sie auch dann angewendet werden können, wenn Sie nicht über umfassende Kenntnisse verfügen. Der Agent braucht wirklich ein Modell, wie sich seine Handlungen auf die Welt auswirken, aber er braucht kein vollständiges Verständnis der Welt und all ihrer Feinheiten. Im Gegensatz zu einigen Ansätzen, die versuchen, alles auf der Welt so gut wie möglich zu modellieren, müssen Sie in unserem Fall nur herausfinden, wie sich Ihre Handlungen auf Ihre eigene Wahrnehmung auswirken. Sie müssen nicht alles über alles lernen; Sie brauchen nur einen Agenten, der die Welt erkundet. Er tut etwas und versucht zu verstehen, wie sich seine Handlungen auf die Welt auswirken. Das Modell wächst und der Agent versteht immer besser, wo sich die Grenzen seiner Autorität erstrecken.

Sie haben es in einer virtuellen Umgebung getestet. Warum nicht in der realen Welt?

Das Haupthindernis für die Skalierung dieses Modells und die Platzierung in einem realen Roboter ist die Schwierigkeit, die Bandbreite eines Agenten und einer Person in einer so reichen Umgebung wie der realen Welt für lange Zeit zu berechnen. Alle diese Prozesse müssen noch wirksam werden. Ich bin optimistisch, aber bisher bleibt dieses Problem rein rechnerisch. Daher überprüfen wir die Funktionsweise des Systems in einem Computerspiel in vereinfachter Form.

Es sieht so aus, als würde Empowerment unsere Maschinen im Idealfall zu leistungsstarken Diensthunden machen

Ich kenne sogar einige Robotertechniker, die absichtlich das Verhalten eines hundebasierten Begleiters modellieren. Ich denke, wenn Roboter uns wie unsere Hunde behandeln, können wir in Zukunft alle miteinander auskommen.

Ilya Khel

Empfohlen: