Werden Uns Die „drei Gesetze Der Robotik“schützen? - Alternative Ansicht

Inhaltsverzeichnis:

Werden Uns Die „drei Gesetze Der Robotik“schützen? - Alternative Ansicht
Werden Uns Die „drei Gesetze Der Robotik“schützen? - Alternative Ansicht

Video: Werden Uns Die „drei Gesetze Der Robotik“schützen? - Alternative Ansicht

Video: Werden Uns Die „drei Gesetze Der Robotik“schützen? - Alternative Ansicht
Video: Drei Gesetze der Robotik 2024, March
Anonim

Es ist 50 Jahre her, dass Isaac Asimov seine berühmten Drei Gesetze der Robotik entwickelte - ein Regelwerk, dem jeder Roboter mit Selbstachtung folgen muss. Obwohl es anfangs nur ein literarisches Mittel war, wurden die drei Gesetze zum ursprünglichen Rezept zur Vermeidung der "Roboterokalypse". Glücklicherweise gibt es Experten, die sicher sind, ob Azimovs Garantien den Test der Zeit bestanden haben. Leider sagen alle nein.

Erinnern wir uns zunächst an dieselben drei Gesetze:

Ein Roboter kann einer Person keinen Schaden zufügen oder durch Untätigkeit zulassen, dass eine Person verletzt wird.

Ein Roboter muss alle Anweisungen eines Menschen befolgen, es sei denn, diese Anweisungen verstoßen gegen das Erste Gesetz.

Der Roboter muss auf seine Sicherheit achten, soweit er nicht dem Ersten und dem Zweiten Gesetz widerspricht.

Später fügte Azimov ein viertes oder Null-Gesetz hinzu, das den anderen in Bezug auf die Priorität vorausging:

Werbevideo:

0. Ein Roboter kann einer Person keinen Schaden zufügen, es sei denn, er kann beweisen, dass er letztendlich für die gesamte Menschheit von Vorteil ist.

Image
Image

Im Fantasy-Universum von Asimov mussten fast alle Roboter diesen Gesetzen folgen. Dies waren nicht nur Vorschläge oder Richtlinien - Gesetze wurden in die Software eingebaut. Darüber hinaus können diese Regeln nicht umgangen, umgeschrieben oder überarbeitet werden.

Wie Asimov selbst zeigte, führten Unvollkommenheiten, Lücken und Unklarheiten in diesen Gesetzen oft zu seltsamem und unlogischem Verhalten von Robotern. Die Gesetze waren zu vage und konnten "Menschen" oft nicht von "Robotern" definieren und unterscheiden. Darüber hinaus könnten Roboter unwissentlich gegen Gesetze verstoßen, wenn ihnen keine vollständigen Informationen zur Verfügung stehen. Außerdem musste ein übermäßig gerissener Roboter oder eine künstliche Intelligenz unter Druck stehen, seinen Kern nicht neu zu programmieren.

Das Jahr ist 2014, und ein Großteil des Alltäglichen von unserem Leben bis zu den Fantasien des letzten Jahrhunderts könnte geradezu als Fantasie erscheinen. Viele Menschen waren der Meinung, dass Asimovs Gesetze als literarisches Mittel hätten bleiben sollen. Aber Azimov selbst bemerkte 1981, dass seine Gesetze funktionieren könnten. Der Computer! er gab Folgendes an:

„Wenn mich jemand fragt, wie es wäre, wenn meine drei Gesetze der Robotik tatsächlich verwendet würden, um das Verhalten von Robotern zu definieren, ist die Antwort fertig. Vorausgesetzt natürlich, dass Roboter flexibel und vielseitig genug sind, um unterschiedliche Verhaltensweisen zu zeigen. Meine Antwort lautet: Ja, die drei Gesetze sind die einzige Möglichkeit, wie Menschen mit Robotern interagieren können - oder irgendetwas anderem.

Fast dreißig Jahre später sind wir einer Realität näher gekommen, in der wir Roboter - genauer gesagt die künstliche Intelligenz, die sie steuert - flexibel und vielseitig genug für verschiedene Verhaltensweisen haben werden. Es bleibt nur eine Frage der Zeit: Wenn die Maschine den Menschen in jeder Hinsicht übertrifft, von körperlicher Stärke bis zur Vorstellungskraft.

Das Erschreckende ist, dass es praktisch keinen Spielraum für Fehler gibt. Wenn künstliche Superintelligenz schlecht programmiert oder dem Menschen gleichgültig ist, führt dies zu einer Katastrophe. Wir müssen sicherstellen, dass künstliche Intelligenz sicher ist, wenn wir ihre Entstehung überleben wollen."

Beantworten Sie die Frage "Können Azimovs drei Gesetze helfen?" Zwei Theoretiker der künstlichen Intelligenz übernahmen: Ben Herzel (Aidyia Holdings) und Louis Helm, stellvertretender Direktor des Machine Intelligence Research Institute (MIRI) und Chefredakteur des Rockstar Research Magazins. Nach einem Gespräch mit ihnen wurde klar, dass Asimovs Gesetze die ihnen zugewiesene Aufgabe im Allgemeinen nicht bewältigen können. Wenn wir eine sichere KI schaffen müssen, müssen wir etwas völlig anderes entwickeln.

Asims Zukunft?

Image
Image

Das Gespräch mit Herzel und Helm begann mit dem, worüber Asimov sich nicht irrte, die Zukunft vorhersagte und wo er sich irrte.

"Ich denke, die Art von Robotern, die Asimov sich vorgestellt hat, wird in nicht allzu ferner Zukunft möglich sein", antwortet Herzel. - In den meisten seiner fiktiven Welten ging der Autor jedoch davon aus, dass humanoide Roboter der Höhepunkt der Robotik und der Technik der künstlichen Intelligenz sein würden. Das ist unwahrscheinlich. Sehr bald, nachdem der Status von Azimov-Robotern erreicht wurde, wird die Schaffung künstlicher Superintelligenz und Superroboter verfügbar sein."

So wird die typische Welt der Zukunft in Asimovs Geschichten über Roboter laut Herzel der ähneln, in der wir heute leben, aber mit intelligenten Robotern, die durch die Straßen gehen.

"Es ist unwahrscheinlich, dass dies passieren wird, und wenn dies der Fall ist, wird es nicht lange auf sich warten lassen."

Für Helm scheinen die Roboter völlig anders zu sein.

„Das Hauptproblem, das meiner Meinung nach das wichtigste für die Menschheit sein wird, bleibt nicht die moralische Regulierung einer riesigen Anzahl halbintelligenter Humanoiden, sondern letztendlich die Entwicklung fortschrittlicher Formen künstlicher Intelligenz (in jedem Körper). Diese Entwicklung der Superintelligenz ist ein Filter, den die Menschheit am Ende durchlaufen muss. Aus diesem Grund ist die Entwicklung einer Sicherheitsstrategie für diesen Übergang so wichtig. Es scheint mir völlig seltsam, dass Roboter, Androiden oder "Emulationen" zehn Jahre oder länger existieren werden, bis die Menschheit mit dem eigentlichen Problem der Entwicklung der Maschinenethik für Superintelligenz konfrontiert ist."

Ein guter Anfang?

Image
Image

Angesichts der Tatsache, dass die drei Asimov-Gesetze der Robotik der erste aufrichtige Versuch waren, ein sehr ernstes Problem zu lösen - das Problem des sicheren Verhaltens von Maschinen mit künstlicher Superintelligenz -, lohnt es sich, nach Momenten zu suchen, in denen die Gesetze noch wirksam (oder zumindest inspirierend) sein können.

„Um ehrlich zu sein, finde ich in diesen drei Gesetzen der Robotik keine Inspiration“, sagt Helm. - Das Wesen der Maschinenethik besteht darin, dass sie die Grundlage der Maschinenethik nicht erfüllen. Vielleicht sind die drei Gesetze der Robotik weithin bekannt, aber in Wirklichkeit ist es sinnlos, sie als Grundlage für die Programmierung zu verwenden."

„Aus irgendeinem Grund ist ein System guter Ethik - Deontologie genannt - zu einer unzuverlässigen Grundlage für Ethik geworden. Es gibt eine Reihe von Philosophen, die versuchen, die Probleme der Deontologie zu lösen, aber sie sind größtenteils dieselben Menschen, die nach "intelligentem Design" und "göttlicher Intervention" suchen. Niemand nimmt sie ernst."

Die Nachteile von Asimovs drei Gesetzen der Robotik lassen sich auf Folgendes zurückführen:

Gegner in der Natur

Basierend auf einer veralteten ethischen Theorie (Deontologie)

Arbeite nicht einmal in der Fiktion

Herzel stimmt zu:

„Der Zweck der drei Gesetze war es, sie auf interessante Weise zu brechen. Deshalb sind ihre Geschichten besonders unterhaltsam. Daher können die drei Gesetze nur ein moralisches Beispiel dafür bleiben, wie man es nicht tut. Wenn wir sie als Grundlage nehmen, wird es unvermeidlich Lücken in ihnen geben. “

Herzel glaubt, dass diese Gesetze in Wirklichkeit nicht funktionieren werden, da die Begriffe mit ihrer Teilnahme nicht eindeutig sind und weiterhin interpretiert werden müssen - was bedeutet, dass sie extrem von denen abhängig sind, die die Übersetzungen machen.

Vorurteile gegen Roboter?

Ein weiterer Aspekt (und potenzieller Fehler) der drei Gesetze im offensichtlichen Chauvinismus ist die Annahme, dass Roboter trotz ihrer überlegenen Kraft dem Menschen, den menschlichen Bedürfnissen und Prioritäten unterworfen bleiben sollten.

„Azimovs Gesellschaft der Zukunft besteht ausschließlich aus Chauvinisten: Menschen haben viel mehr Rechte als Roboter. Die drei Gesetze der Robotik wurden geschaffen, um eine solche soziale Ordnung aufrechtzuerhalten."

Image
Image

Helm sieht dieses Problem etwas anders und argumentiert, dass wenn wir uns in einer solchen Situation befinden, dies an sich ein Beweis dafür sein wird, dass wir zu weit gegangen sind.

„Ich denke, es wäre unklug, ein künstliches Intelligenzsystem oder einen selbstbewussten Roboter zu entwerfen. Und im Gegensatz zu Filmen oder Büchern, in denen die Schöpfer künstlicher Intelligenz "versehentlich" zu intelligenten Maschinen kommen, glaube ich nicht, dass dies im wirklichen Leben passieren kann. Dies erfordert zu viel Aufwand und Wissen. Und die meisten KI-Designer sind ethisch versierte Menschen, daher vermeiden sie es, das zu erschaffen, was Philosophen "moralisch bedeutsame Wesen" nennen. Besonders wenn sie leicht eine fortschrittliche Maschine schaffen können, die keine ethischen Neigungen hat."

Helm ist nicht besorgt über die Notwendigkeit, asymmetrische Gesetze zu entwickeln, um den Wert von Robotern gegenüber Menschen zu regeln, und argumentiert (und hofft), dass zukünftige Schöpfer künstlicher Intelligenz sich auf einige ethische Einschränkungen stützen werden.

„Ich denke, Menschen bestehen aus Atomen, also kann ein Ingenieur theoretisch eine synthetische Lebensform oder einen Roboter mit einer moralischen Bedeutung erschaffen. Ich würde gerne denken, dass niemand dies tun wird. Ich denke, die meisten Leute tun es auch. Aber zwangsläufig wird es einen Narren geben, der als Pionier bekannt sein will, auch wenn es unethisch und dumm ist."

Drei Gesetze der Robotik 2.0?

Angesichts der offensichtlichen Mängel der drei Gesetze der Robotik von Asimov stellte die io9-Ressource die Frage: Können sie korrigiert oder verbessert werden? Tatsächlich haben viele Science-Fiction-Autoren dies viele Male versucht und es im Laufe der Jahre optimiert.

"Nein", sagt Helm. "Es gibt keine Patches für die drei Gesetze."

Gesetze sind nicht nur widersprüchlich, sondern auch kontrovers.

"Ich bin ein Befürworter maschinenethischer Ansätze, die kooperativer, konsistenter und normativer sind, was bedeutet, dass sie sich von Missverständnissen erholen oder falsche Programmierungen korrigieren können."

Herzel stimmt mit Helms Behauptungen überein.

Die Definition einer Reihe ethischer Grundsätze als Kern der Maschinenethik ist hoffnungslos, wenn die Maschine auf flexibler allgemeiner künstlicher Intelligenz basiert. Wenn es als intuitiv, flexibel, anpassungsfähig oder ethisch konzipiert ist - in diesem Zusammenhang sind ethische Grundsätze für das System nur als grobe Richtlinie für die Anwendung seiner eigenen ethischen Intuition nützlich. In diesem Fall werden die Gebote jedoch nicht zur Grundlage des ethischen Systems, sondern nur zu einem Aspekt. Dies kann an menschlichen Beispielen gesehen werden - die ethischen Prinzipien, die wir studieren, arbeiten, aber nicht als Richtlinien, sie drücken nur unsere Intuition und ethischen Instinkte. Wir sind praktisch unabhängig von ethischen Grundsätzen."

Wie schafft man sichere künstliche Intelligenz?

Angesichts der Unzulänglichkeit des rechtlichen Ansatzes können Sie Gertzel und Helm nach modernen Ansätzen für das Problem der "sicheren KI" fragen.

"Nur sehr wenige Forscher für allgemeine künstliche Intelligenz glauben, dass es möglich ist, ein System zu schaffen, das absolut sicher ist", sagt Herzel. "Aber das stört die Mehrheit nicht, da in diesem Leben überhaupt nichts garantiert werden kann."

Herzel glaubt, dass wir, sobald wir ein allgemeines künstliches Intelligenzsystem oder seinen Embryo geschaffen haben, Forschungen und Experimente durchführen können, die uns viel mehr über die Ethik der KI erzählen als wir wissen.

„Hoffentlich können wir auf diese Weise gute Theorien zur Ethik der künstlichen Intelligenz formulieren, die es uns ermöglichen, tiefer in dieses Thema einzutauchen. Aber jetzt ist es ziemlich schwierig, über die Ethik der KI zu theoretisieren, da wir nicht nur gute Theorien haben, sondern überhaupt keine Theorien."

„Und für Leute, die zu viele Terminatoren beobachtet haben, mag der Prozess der Schaffung künstlicher Intelligenz einschüchternd erscheinen, da sie in diesem Zusammenhang das Wort„ primitiv “vermissen. Die radikalsten Veränderungen ereigneten sich jedoch auf diese Weise."

"Als eine Gruppe intelligenter Höhlenmenschen die Sprache erfand, erwarteten sie nicht die Entwicklung einer soliden formalen Sprachtheorie, die dazu beitragen könnte, zukünftige Veränderungen vorherzusagen, die durch die Entstehung der Sprache in der Gesellschaft verursacht werden."

Bevor Sie die Entwicklung der nächsten "drei Gesetze" als technisches Problem betrachten, müssen Sie viel Forschung betreiben. Und hier sind sich Helm und Herzel einig.

„Mein Kollege von MIRI Luc Muelhauser hat unsere Argumentation wie folgt zusammengefasst. Er sagte, dass Probleme oft von der Philosophie zur Mathematik und dann zum Ingenieurwesen übergehen. Der Philosophie werden oft die richtigen Fragen gestellt, aber auf die unpraktischste Weise. Niemand kann mit Sicherheit sagen, ob bei der Lösung des Problems Fortschritte erzielt wurden. Wenn wir die wichtigen philosophischen Probleme von Vernunft, Identifikation und Wert in präzise Formeln umformulieren können, mit denen ein Mathematiker umgehen kann, kann ein Modell erstellt werden. Eines schönen Tages wird es zum Engineering kommen."

Helm findet dieses Problem für Wissenschaft und Philosophie schwierig, aber Fortschritte sind möglich.

„Ich bin skeptisch, dass die Philosophie ein Problem lösen kann, das seit mehr als 3000 Jahren zu kämpfen hat. Aber auch wir können keine mathematischen Modelle von Fragen erstellen, die technisch nicht vorhanden sind. Wir brauchen noch viele theoretische und sogar praktische Entwicklungen."

Empfohlen: