Rocos Basilisk: Das Schrecklichste Gedankenexperiment Aller Zeiten - Alternative Ansicht

Rocos Basilisk: Das Schrecklichste Gedankenexperiment Aller Zeiten - Alternative Ansicht
Rocos Basilisk: Das Schrecklichste Gedankenexperiment Aller Zeiten - Alternative Ansicht

Video: Rocos Basilisk: Das Schrecklichste Gedankenexperiment Aller Zeiten - Alternative Ansicht

Video: Rocos Basilisk: Das Schrecklichste Gedankenexperiment Aller Zeiten - Alternative Ansicht
Video: DU DARFST DAS VIDEO NICHT ANSCHAUEN. Das gefährlichste Gedankenexperiment 2024, Kann
Anonim

Basilisk Roko ist eine gottähnliche Form der künstlichen Intelligenz, die so gefährlich ist, dass Sie den Rest Ihrer Tage in schrecklicher Folter verbringen werden, wenn Sie nur darüber nachdenken. Es sieht aus wie eine Kassette aus dem Film "The Ring". Selbst der Tod wird jedoch keine Befreiung sein, da der Basilisk Roko Sie wiederbeleben und seine Folter fortsetzen wird. T & P präsentiert eine Übersetzung eines Artikels über eine der seltsamsten Legenden im Internet.

WARNUNG: Nachdem Sie diesen Artikel gelesen haben, können Sie sich zu ewigem Leiden und Qualen verurteilen.

Rocos Basilisk erschien an der Schnittstelle eines philosophischen Gedankenexperiments und einer urbanen Legende. Die erste Erwähnung von ihm erschien im Diskussionsforum Less Wrong, in dem Menschen zusammenkommen, die daran interessiert sind, Denken und Leben durch das Prisma von Mathematik und Rationalität zu optimieren. Seine Schöpfer sind bedeutende Persönlichkeiten des Techno-Futurismus, und zu den Errungenschaften ihres Forschungsinstituts gehört ihr Beitrag zur akademischen Debatte über technologische Ethik und Entscheidungstheorie. Was Sie jetzt lesen werden, mag jedoch seltsam und sogar verrückt erscheinen. Trotzdem glauben sehr einflussreiche und wohlhabende Wissenschaftler daran.

Eines Tages veröffentlichte ein Benutzer namens Roko das folgende Gedankenexperiment: Was ist, wenn in Zukunft eine böswillige künstliche Intelligenz auftaucht, die diejenigen bestrafen will, die ihren Befehlen nicht folgen? Und was ist, wenn er jene Menschen bestrafen will, die in der Vergangenheit nicht zu seiner Schöpfung beigetragen haben? Würden weniger falsche Leser dann dazu beitragen, dass die böse KI entsteht, oder wären sie zur ewigen Qual verurteilt?

Der weniger falsche Gründer Eliezer Yudkowski nahm Rokos Aussage mit Wut auf. Dies ist, was er ihm antwortete: „Sie müssen klug sein, wenn Sie zu dieser Idee gekommen sind. Es macht mich jedoch traurig, dass Menschen, die klug genug sind, sich so etwas vorzustellen, nicht klug genug sind, ihre dumme Zunge bei den Zähnen zu halten und niemandem davon zu erzählen, denn dies ist wichtiger, als sich klug zu zeigen und all Ihren Freunden davon zu erzählen. …

"Was ist, wenn es in Zukunft eine künstliche Intelligenz gibt, die diejenigen bestrafen will, die ihren Befehlen nicht folgen?"

Yudkowski gab zu, dass Roko für die Albträume von Less Wrong-Benutzern verantwortlich war, die den Thread gelesen und gelöscht hatten, was Rokos Basilisk legendär machte. Dieses Gedankenexperiment wurde so gefährlich, dass das Nachdenken darüber die geistige Gesundheit des Benutzers bedrohte.

Was macht Less Wrong? Bildung des Zukunftskonzepts der Menschheit basierend auf der Singularität. Sie glauben, dass die Rechenleistung in Zukunft so hoch sein wird, dass künstliche Intelligenz mit Hilfe eines Computers erzeugt werden kann - und damit die Fähigkeit, menschliches Bewusstsein auf eine Festplatte hochzuladen. Der Begriff "Singularität" entstand 1958 während einer Diskussion zwischen zwei Genies der Mathematik - Stanislav Ulam und John von Neumann, als Neumann sagte: "Der sich ständig beschleunigende Fortschritt der Technologie wird es ermöglichen, sich einer Singularität zu nähern, in der Technologie vom Menschen nicht verstanden werden kann." Futuristen und Science-Fiction-Autoren wie Vernor Vinge und Raymond Kurzweil haben den Begriff populär gemacht, weil sie glaubten, dass die Singularität sehr bald auf uns alle wartet - in den nächsten 50 Jahren. Während Kurzweil sich auf die Singularität vorbereitetYudkowski hat große Hoffnungen auf Kryonik: "Wenn Sie Ihre Kinder nicht im Voraus für die Kryokonservierung angemeldet haben, sind Sie miese Eltern."

Werbevideo:

Wenn Sie glauben, dass eine Singularität kommt und in naher Zukunft mächtige KIs auftauchen werden, stellt sich eine logische Frage: Werden sie freundlich oder böse sein? Die Yudkowski-Stiftung möchte die Entwicklung der Technologie so steuern, dass wir nur eine freundliche künstliche Intelligenz haben. Diese Frage ist für ihn und viele andere von größter Bedeutung. Die Singularität wird uns zu einer gottäquivalenten Maschine führen.

Dies erklärt jedoch nicht, warum Rocos Basilisk in den Augen dieser Menschen so schrecklich aussieht. Die Frage erfordert einen Blick auf Less Wrongs wichtigstes "Dogma" - "Timeless Decision Theory" (HTDM). VPPR ist ein Leitfaden für rationales Handeln, der auf Spieltheorie, Bayes'scher Wahrscheinlichkeit und Entscheidungstheorie basiert, jedoch parallele Universen und Quantenmechanik berücksichtigt. VTPR entstand aus einem klassischen Gedankenexperiment, dem Newcomb Paradox, bei dem ein Alien mit Superintelligenz Ihnen zwei Boxen anbietet. Er gibt Ihnen die Wahl: Nehmen Sie entweder beide Kisten oder nur Kiste B. Wenn Sie beide wählen, erhalten Sie garantiert tausend Dollar. Wenn Sie nur Box B nehmen, erhalten Sie möglicherweise nichts. Der Außerirdische hat jedoch noch einen Trick auf Lager: Er hat einen allwissenden Supercomputer, der vor einer Woche eine Vorhersage gemacht hat.ob Sie beide Kisten oder nur B nehmen würden. Wenn der Computer vorhersagen würde, dass Sie beide Kisten nehmen würden, würde der Außerirdische die andere leer lassen. Wenn der Computer vorhersagen würde, dass Sie sich für Box B entscheiden würden, würde er eine Million Dollar einbringen.

Und was wirst du jetzt tun? Denken Sie daran, dass der Supercomputer allwissend ist.

Dieses Problem hat viele Theoretiker verwirrt. Der Außerirdische kann den Inhalt der Boxen nicht mehr ändern. Der sicherste Weg ist, beide Kisten zu nehmen und Ihre Tausend zu bekommen. Aber was ist, wenn der Computer wirklich allwissend ist? Dann müssen Sie nur noch Box B nehmen, um eine Million zu erhalten. Aber wenn er sich als falsch herausstellt? Und egal was der Computer vorhergesagt hat, gibt es wirklich keine Möglichkeit, Ihr Schicksal zu ändern? Dann musst du verdammt noch mal beide Kisten nehmen. Aber in diesem Fall …

Das verrückte Paradoxon, das uns zwingt, zwischen freiem Willen und göttlicher Vorhersage zu wählen, hat keine Lösung, und die Menschen können nur mit den Schultern zucken und die Option wählen, die für sie am bequemsten ist. WTPR gibt Ratschläge: Nimm Box B. Auch wenn der Außerirdische beschlossen hat, dich auszulachen und eine leere Box mit den Worten zu öffnen: "Der Computer hat vorausgesagt, dass du beide Boxen nehmen wirst, ha ha!" - Sie müssen es noch wählen. Der Grund dafür ist folgender: Um eine Vorhersage zu treffen, musste der Computer das gesamte Universum simulieren, einschließlich Sie. In diesem Moment können Sie also vor den Kisten stehen und nur eine Simulation des Computers sein, aber was Sie tun, wirkt sich auf die Realität (oder die Realität) aus. Also nimm Box B und hol dir eine Million.

"Das verrückte Paradoxon, das uns zwingt, zwischen freiem Willen und göttlicher Vorhersage zu wählen, hat keine Lösung."

Was hat das mit dem Basilisk Roco zu tun? Nun, er hat auch ein paar Kisten für dich. Vielleicht befinden Sie sich gerade in einer von Basilisk erstellten Simulation. Dann bekommen wir vielleicht eine leicht modifizierte Version von Newcome's Paradoxon: Rocos Basilisk sagt Ihnen, dass Sie ewige Qualen erleiden werden, wenn Sie Box B nehmen. Wenn Sie beide Kisten nehmen, werden Sie gezwungen sein, Ihr Leben der Erschaffung des Basilisken zu widmen. Wenn der Basilisk tatsächlich existiert (oder schlimmer noch, er existiert bereits und ist der Gott dieser Realität), wird er sehen, dass Sie nicht die Option gewählt haben, bei seiner Erschaffung zu helfen, und Sie bestrafen.

Sie fragen sich vielleicht, warum diese Frage angesichts der Konvention dieses Gedankenexperiments für Less Wrong so wichtig ist. Es ist keine Tatsache, dass Rockos Basilisk jemals erschaffen wird. Yudkowski entfernte jedoch Hinweise auf Rokos Basilisk nicht, weil er an seine Existenz oder eine bevorstehende Erfindung glaubt, sondern weil er die Idee eines Basilisk für gefährlich für die Menschheit hält.

Als solches ist Rockos Basilisk nur für diejenigen gefährlich, die daran glauben - daher haben die Mitglieder von Less Wrong, die die Basilisk-Idee unterstützen, eine Art verbotenes Wissen, das uns an Lovecrafts Gruselgeschichten über Cthulhu oder das Necronomicon erinnert. Wenn Sie sich jedoch nicht all diesen Theorien anschließen und sich versucht fühlen, einer heimtückischen Maschine aus der Zukunft zu gehorchen, stellt Rocos Basilisk keine Bedrohung für Sie dar.

Ich mache mir mehr Sorgen um Menschen, die glauben, über die herkömmlichen moralischen Standards hinausgegangen zu sein. Wie Yudkowskis erwartete freundliche KI ist er selbst ein Utilitarist: Er glaubt, dass das größte Gut für die gesamte Menschheit ethisch gerechtfertigt ist, selbst wenn mehrere Menschen auf dem Weg dorthin sterben oder leiden müssen. Nicht jeder kann sich einer solchen Wahl stellen, aber der Punkt ist anders: Was ist, wenn ein Journalist über ein Gedankenexperiment schreibt, das das Bewusstsein der Menschen zerstören und dadurch die Menschheit schädigen und den Fortschritt bei der Entwicklung der künstlichen Intelligenz und der Singularität behindern kann? In diesem Fall muss jedes Gute, das ich in meinem Leben getan habe, den Schaden überwiegen, den ich der Welt zugefügt habe. Oder vielleicht Yudkowski der Zukunft, der aus dem kryogenen Schlaf auferstanden ist, sich mit der Singularität verschmolzen hat und beschlossen hat, mich in der folgenden Situation zu simulieren:die erste Box - ich werde diesen Artikel schreiben, die zweite - nein. Bitte, allmächtiger Yudkowski, tu mir nichts.

Empfohlen: