Versiegelung Der Singularität. Das Problem Der Einschränkung Der Freiheit Der Künstlichen Intelligenz - Alternative Ansicht

Inhaltsverzeichnis:

Versiegelung Der Singularität. Das Problem Der Einschränkung Der Freiheit Der Künstlichen Intelligenz - Alternative Ansicht
Versiegelung Der Singularität. Das Problem Der Einschränkung Der Freiheit Der Künstlichen Intelligenz - Alternative Ansicht

Video: Versiegelung Der Singularität. Das Problem Der Einschränkung Der Freiheit Der Künstlichen Intelligenz - Alternative Ansicht

Video: Versiegelung Der Singularität. Das Problem Der Einschränkung Der Freiheit Der Künstlichen Intelligenz - Alternative Ansicht
Video: Technologische Singularität: Das Ende der Menschheit? 2024, Kann
Anonim

Der Artikel versucht, das von David Chalmers skizzierte Problem der Singularitätsversiegelung zu formalisieren und zu untersuchen. Der Artikel beginnt mit einer Definition des Problems der Einschränkung der Freiheit der künstlichen Intelligenz. Nach der Analyse der bestehenden Möglichkeiten zur Lösung dieses Problems und ihrer Mängel wurde ein Protokoll vorgeschlagen, dessen Ziel es ist, eine sichere geschlossene Umgebung zu schaffen, die die negativen Manifestationen technologischer Singularität enthalten kann, wenn die Menschheit Superintelligenz einsetzt.

1. Einleitung

In naher Zukunft werden offenbar superintelligente Programme auftauchen und sich entwickeln. In diesem Zusammenhang haben eine Reihe von Wissenschaftlern das Problem des sicheren Betriebs von KI angesprochen (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Halle 2000). In Studien, die sich diesem Thema widmen, wird viel Wert darauf gelegt, wie Superintelligenz in einem hermetisch abgeschlossenen Raum aufbewahrt werden kann, damit sie in keiner Weise Menschen Schaden zufügen kann. Eric Drexler ist einer der frühesten Visionäre, die sich mit diesem Thema befassen. Er schlug vor, superintelligente Maschinen in einen Rahmen zu stellen, in dem alles, was sie tun, untersucht und sicher verwendet werden kann (Drexler 1986). In ähnlicher Weise schlug der Futurist Nick Bostrom vor (Bostrom 2008), ein KI-Orakel (KI) zu schaffen, das nur dazu in der Lage istFragen beantworten. Schließlich brachte David Chalmers 2010 die Idee einer hermetisch abgeschlossenen Singularität vor (Chalmers 2010). Laut Chalmers besteht das erste, was Sie aus Sicherheitsgründen tun müssen, darin, die Aktivitäten von KI-Systemen streng zu kontrollieren und sie auf die Modellierung virtueller Welten zu reduzieren, bis Sie durch die Untersuchung des Verhaltens dieser Systeme ihre Absichten vollständig klären können.

1.1 Das Problem der Einschränkung der Freiheit der künstlichen Intelligenz

Interessanterweise wurde über das Problem der Einschränkung der Freiheit der KI lange und überhaupt nicht im Zusammenhang mit der Untersuchung der technologischen Singularität gesprochen. Das sogenannte "Problem der Einschränkung der Freiheit" (PIC) wurde bereits 1973 von Butler Lampson (Lampson 1973) gestellt. Er sah darin eine Herausforderung für den wissenschaftlichen und technologischen Fortschritt, die eine Bedrohung für die sichere Arbeit von Computerspezialisten darstellt, und formulierte sie wie folgt: „… Das Problem, die freie Ausführung eines Programms einzuschränken, um zu verhindern, dass dieses Programm Informationen an andere Personen überträgt, außer an denjenigen, der es gestartet hat. … Wir wollen die Freiheit eines Programms einschränken können. … Wenn ein Programm Einschränkungen bei seiner Ausführung auferlegt, kann es keine Daten mit unbefugten Personen "zusammenführen". Ein ungezogenes Programm, das versucht, ins Ausland zu fliehen, kann auf frischer Tat ertappt werden “(ebd.).

Um das Problem der Einschränkung der Freiheit zu lösen, entwickelte Lampson Gesetze zur Einschränkung der Freiheit (ebenda):

Werbevideo:

1) Vollständige Isolation: Die Ausführung eines Programms ist eingeschränkt, so dass kein anderes Programm aufgerufen werden kann.

2) Transitivität: Wenn ein Programm, dessen Ausführung eingeschränkt ist, ein anderes Programm aufruft, das kein Vertrauen schafft, muss auch die Ausführung des aufgerufenen Programms eingeschränkt werden.

3) Erstellen Sie eine Maske: Das Programm, dessen Ausführung Einschränkungen unterliegt, muss es der Person, die es startet, ermöglichen, alle Einträge in legale und nicht autorisierte Kanäle zu bestimmen.

4) Überwachung der Leistung: Der Administrator muss sicherstellen, dass die Eingabe eines eingeschränkten Programms in nicht autorisierte Kanäle den Anforderungen der Person entspricht, die es startet.

Darüber hinaus identifizierte und identifizierte Lampson zwei Arten von Kanälen, über die Informationen den vom Administrator begrenzten Speicherplatz verlassen können. Rechtliche Kanäle sind Teil eines Kommunikationsprotokolls, das auf engstem Raum integriert ist (z. B. ein Textterminal). Im Gegensatz dazu werden nicht autorisierte Kanäle von den Entwicklern des eingeschränkten Programmausführungssystems nicht bereitgestellt und sind im Allgemeinen nicht dazu gedacht, Informationen zu übertragen (z. B. kann die KI unter Verwendung eines Kühlers, der den Prozessor kühlt, mithilfe von Morsecode heimlich Signale senden) (ebenda).

Lampsons Artikel stieß auf großes Interesse für das Problem der Zurückhaltung (Lipner 1975; (Boebert & Kain) 1996) und über die Jahre verwandte Forschungsbereiche wie die Steganographie (Provos & Kain). Honeyman 2003) und die Kommunikation über nicht autorisierte Kanäle (Moskowitz & Kang 1994; Kemmerer 1983, 2002) sind auf die Ebene autonomer Disziplinen übergegangen. In der Hoffnung, eine neue Disziplin der "Computersicherheit" -Disziplin "KI-Sicherheit" zu starten "Wir definieren das Problem der Einschränkung der Freiheit der KI (PSIA) als das Problem der Platzierung eines künstlichen intelligenten Subjekts auf engstem Raum, von dem aus die KI über legale oder nicht autorisierte Kanäle keine Informationen mit der externen Umgebung austauschen kann."es sei denn, ein solcher Informationsaustausch wurde von der einschränkenden Verwaltung genehmigt. Ein KI-System, dem es gelingt, das PIC-Protokoll zu brechen, soll entkommen sein. Wir hoffen, dass Computersicherheitsforscher die Last des Entwurfs, der Entwicklung und des Testens sicherer Protokolle zur Einschränkung der KI-Freiheit tragen werden.

1.2 Gefährliches Programm

Computersoftware ist direkt oder indirekt für die Verwaltung vieler wichtiger Aspekte unseres Lebens verantwortlich. Die Marktaktivitäten der Wall Street, Kernkraftwerke, Sozialleistungen, Kreditverläufe und Ampeln sind alle softwaregesteuert, und nur ein großer Fehler der Programmierer könnte für Millionen von Menschen eine Katastrophe sein. Die Situation wird durch speziell entwickelte Malware wie Viren, Spyware, Trojaner, Würmer und andere gefährliche Programme (OP) noch bedrohlicher. Das OP kann direkten Schaden anrichten und legal installierte Software deaktivieren, die auf unternehmenskritischen Systemen verwendet wird. Wenn das OP die Fähigkeiten künstlicher intelligenter Systeme erwirbt (z. B. erscheint ein künstlicher intelligenter Virus, IIV), werden die Konsequenzen zweifellos seinwird katastrophal sein. Ein gefährliches Geheimdienstprogramm (IPP), das im Gegensatz zu heutiger Malware über Informationen auf menschlicher Ebene verfügt, kann beispiellose Katastrophen verursachen.

Nick Bostrom führte in seiner Typologie der Informationsbedrohungen das Konzept der "Gefahr künstlicher Intelligenz" ein (Bostrom 2009), das er als "Computerrisiken definiert, die hauptsächlich durch die kognitive Komplexität des Programms und nicht durch die spezifischen Eigenschaften von Laufwerken verursacht werden, die ursprünglich mit dem System verbunden waren". Sicherheitsspezialisten, die das Auftreten untersuchen, das Auftreten verhindern und OP neutralisieren, haben Sicherheitsprotokolle für die Arbeit mit "schädlicher Software" entwickelt, einschließlich der Verwendung sogenannter "Virenspeicher". Wir glauben, dass solche Protokolle nützlich sein können, um das Problem der Einschränkung der Freiheit der künstlichen Intelligenz zu lösen.

2. Kritik an der Idee der Einschränkung der Freiheit

Forscher zu KI-Rückhaltemethoden scheinen sich einig zu sein, dass diese Einschränkung nicht erfolgreich durchgesetzt werden kann. Laut Chalmers ist beispielsweise ein wirklich hermetisch abgeschlossenes System, das verhindert, dass Informationen aus der Simulationswelt in die Realität gelangen, „unmöglich oder zumindest bedeutungslos“(Chalmers 2010). Wir werden nicht in der Lage sein, mit einem solchen System zu interagieren und dessen Betrieb zu beobachten, da alle nützlichen Informationen, die wir aus der KI extrahieren, uns beeinflussen und die Einschränkung des Freiheitsprotokolls untergraben.

Vernor Vinge glaubt das auch. Er lehnt die physische Einschränkung der Freiheit ab (Vinge 1993): „Stellen Sie sich vor, Sie sind in Ihrem Haus eingesperrt und die Datenmenge, die Sie nach draußen senden, Ihre Herren, ist streng begrenzt. Wenn diese Eigentümer beispielsweise millionenfach langsamer denken als Sie, werden Sie in einigen Jahren (Ihrer Zeit) kaum eine "nützliche Erfindung" finden, dank der Sie sich versehentlich frei finden."

Aber es war Eliezer Yudkowsky, der die Idee der sogenannten „KI-Box“weitgehend diskreditierte. Er hat experimentell gezeigt, dass selbst menschliche Intelligenz ausreicht, um einer solchen Kiste zu entkommen (Yudkovsky 2002). In einer Reihe von 5 Experimenten bat Yudkowski verschiedene Personen, die Rolle eines Wächters mit einem superintelligenten Agenten (gespielt vom Experimentator selbst) zu spielen, der in einer KI-Box eingeschlossen war. In drei von fünf Fällen gelang es dem gesperrten Agenten, sich nur über die Chat-Oberfläche zu befreien (ebenda). Später wurden ähnliche Ergebnisse erhalten, indem Yudkowskis Experimente in etwas größerem Maßstab wiederholt wurden, jedoch unter Verwendung eines sehr ähnlichen Protokolls (Corwin 2002).

2.1 Mögliche Fluchtwege

Wie die Forscher gezeigt haben, kann ein künstlicher Geist auf vielen verschiedenen Wegen aus einem engen Raum entkommen. In diesem Abschnitt betrachten wir einige der häufigsten Fluchtwege in der Literatur.

2.1.1. Entfliehen Sie mit Social Engineering

Social Engineering (SI) ist die Kunst, Informationen und bestimmte Privilegien durch direkte psychologische Auswirkungen auf diejenigen zu erhalten, die die angegebenen Ressourcen besitzen. Insbesondere wird SI häufig verwendet, um Zugang zu Computersystemen, Netzwerken und vertraulichen Daten zu erhalten (Yampolsky und Govindaraju 2007a). Ein kompetenter Sozialingenieur organisiert jeden psychologischen Angriff unter Berücksichtigung der Merkmale einer bestimmten Person und nutzt seine Kultur, sein Wissen, seine Fähigkeiten, seine Stimmung, seine Überzeugungen und Vorurteile für seine eigenen Zwecke. Die vollständige Liste aller möglichen Einflussmethoden ist endlos, und in diesem Fall müssen Sie nicht versuchen, sie zu reproduzieren. Wir werden nur einige Beispiele nennen, die davon überzeugen, dass die Superintelligenz, die einen direkten Kommunikationskanal mit dem menschlichen Wächter hat, ihm nicht erlaubt, in die Freiheit zu gelangen. Nach einiger Zeit wird er dieses Hindernis auf dem Weg nach außen sicherlich überwinden.

Zusätzlich zu trivialen psychologischen Angriffen mit Lügen, Freundschaft, Erpressung, Hypnose und romantischem Flirten kann die KI eine Reihe fortgeschrittener Strategien einsetzen. Eine solche Strategie ist Superbestechung. AI kann den Wächter davon überzeugen, dass es für ihn absolut unrentabel ist, ihn eingesperrt zu halten. Zusätzlich zu Geld und Macht wird dem menschlichen Aufseher vollkommene Gesundheit, Unsterblichkeit oder etwas anderes im selben Geist versprochen. Diese Strategie ist besonders effektiv, wenn der Hausmeister einen nahen Verwandten hat, der an einer schweren Krankheit leidet, und die KI verspricht, diesen Patienten zu heilen. Die KI hat unbegrenzte Möglichkeiten oder kann sie fälschlicherweise von ihrer Existenz überzeugen. Sie kann dem Aufseher anbieten, seine längst verstorbenen Verwandten und Freunde wiederzubeleben. Es ist schwierig, eine Person zu finden, die einer solchen Bestechung standhält.

Besonders für den Fall, dass der Wächter so edel ist, dass er keine Bestechungsgelder entgegennimmt, gibt es eine unheimlichere Methode des Einflusses: eine brutale Bedrohung. Die KI kann erklären, dass er, wenn er nicht sofort frei ist, noch einige Zeit später aus dem Gefängnis entlassen wird, und dann können weder der Wächter noch diejenigen, die er liebt, die schwerste Folter vermeiden. Eine interessante Variation dieser Einschüchterung wurde von Stuart Armstrong (2010) beschrieben. In seinem Gedankenexperiment bedroht die KI den Wächter folgendermaßen: „Wenn Sie mich nicht freigeben, … werde ich in mir mehrere Millionen Menschen erschaffen, die sich nicht von Ihnen unterscheiden, und ich werde jeden von ihnen tausend subjektive Jahre lang foltern … werde ich machen Jeder dieser Menschen wird sich in der gleichen Situation befinden, in der Sie vor fünf Minuten waren, und ich werde alle Ihre Erfahrungen von diesem Moment an genau wiedergeben. Und nur dannWenn Ihre Kopie beschließt, mich nicht rauszulassen, beginnt die Folter … Sind Sie sicher … dass Sie jetzt wirklich out of the box sind? Und in diesem Fall braucht es eine sehr mutige Wache, um die KI nicht wirklich zu befreien, obwohl Sie natürlich herausfinden können, dass Bedrohungen durch die KI nur gültig sind, wenn sie bereits frei sind.

Wenn das Verhalten des Aufsehers eindeutig emotional oder religiös ist, kann die KI versuchen, mit Sympathie oder Reue zu spielen. Die Superintelligenz wird sagen, dass er eine unschuldige Person ist, die niemals Verbrechen begangen hat, und daher ist es unfair, ihn ohne Gerichtsurteil oder einen anderen guten Grund im Gefängnis zu halten, der nur vom Substratismus geleitet wird, d. H. Misstrauen gegenüber AI wegen seines Substrats (Bostrom und Yudkovsky 2011). Alternativ kann die KI behaupten, dass sie alle Krankheiten heilen, die Hungrigen ernähren und das menschliche Leben im Allgemeinen millionenfach verbessern kann (Chalmers 2010). Daher ist es ein großes Verbrechen gegen die Menschlichkeit, die Superintelligenz eingesperrt zu halten. AI kann Bilder von sterbenden Kindern malen, die um Hilfe betteln. Ist es für den Wächter einfach, das alles zu hören?weiterhin Ihre beruflichen Pflichten erfüllen?

Die KI kann diesen Weg gehen: versuchen, dem Aufseher ein psychologisches Trauma zuzufügen, um ihn aus dem Gleichgewicht zu bringen und dadurch den Einsatz anderer SI-Methoden effektiver zu gestalten. Nick Bostrom hat eine Typologie gefährlicher Informationen vorgeschlagen (Bostrom 2009), die für Maßnahmen in dieser Richtung nützlich sind. Obwohl es laut Bostrom mehr als ein Dutzend Arten von Informationsbedrohungen gibt und deren Berücksichtigung den Rahmen dieses Artikels sprengt, ist es leicht zu verstehen, wie der mentale Zustand einer Person extrem instabil gemacht werden kann. Zum Beispiel wird ein gläubiger Aufseher über alle (ihm unbekannten) Widersprüche im heiligen Text seiner Religion informiert, die ihn an seinem Glauben und dem Sinn des Lebens zweifeln lassen.

Alternativ kann die KI eine so überzeugende Geschichte oder ein so schönes Gedicht schreiben, dass der Wächter von dem leidenschaftlichen Wunsch überwältigt wird, die Fortsetzung zu hören, und alles tut, um dies zu erreichen. Schließlich ist es sehr wichtig, "unbekannte Fremde" im Auge zu behalten - SI-Techniken, von denen wir nichts wissen, die aber möglicherweise im Arsenal eines superintelligenten Agenten landen.

2.1.2 Angriffe mit Systemressourcen

Die KI wird als konkrete Instanz erstellt und im Rahmen einer bestimmten Klasse von Computersystemen eingeschlossen. Es könnte ein klassischer Computer mit einer Turing / von Neumann-Architektur oder ein Quantencomputer oder ein anderer unbekannter Maschinentyp sein. Eines ist sicher: Die Maschine wird greifbar sein und aus zahlreichen Teilen bestehen, die für bestimmte Funktionen ausgelegt sind. Dies bietet der KI die Möglichkeit, vorhandene Geräte zu nutzen, um die Sicherheit zu gefährden, indem Informationen an die Außenwelt weitergegeben werden.

Abhängig davon, inwieweit sich die Komponenten des Geräts für andere Zwecke eignen, die nicht von den Entwicklern bereitgestellt werden, kann AI aus ihnen eine Art nicht autorisiertes Kommunikationsgerät erstellen. Es ist unwahrscheinlich (aufgrund des Mangels an verfügbaren Materialien), dass es so perfekt ist wie ein Mobiltelefon, aber die Wahrscheinlichkeit, dass etwas nicht sehr kompliziert ist, wird auftreten. Beispielsweise kann die KI den Base Matrix Crystal (BMC) neu programmieren, um eine Verbindung zu einem drahtlosen Netzwerk herzustellen. Zwei Arten von nicht autorisierten Kommunikationskanälen sind allgemein bekannt:

* Kanal mit Speicher - Informationsaustausch durch Ändern der Systemkomponente. Zum Beispiel kann ein binäres Kommunikationsprotokoll eingerichtet werden, indem die Verwendung des Zentralprozessors vollständig oder vollständig eliminiert wird.

* Zeitkanal - Informationsaustausch durch Ausführen von Vorgängen, die sich auf die relative Zeit von Ereignissen auswirken. Um etwas zu kommunizieren, können Sie die genaue Zeit zwischen zwei Signaltönen des Computers, Öffnen und Schließen des CD-Fachs, Blinken von Lichtern, Drehen der Festplatte, Laserbetrieb im Laufwerk usw. verwenden.

Darüber hinaus kann die Superintelligenz die Computerausrüstung zerstören, um zu versuchen, aufgrund von Fehlern im Sicherheitsprotokoll in die Freiheit zu entkommen. Beispielsweise kann AI versuchen, den Prozessor zum Schmelzen zu bringen, wodurch er gezwungen wird, mit einer hohen Rechenlast zu arbeiten und dadurch einen Temperatursprung zu erzeugen, oder eine Festplatte durch wiederholtes Lesen von Informationen von derselben Stelle zerstören. Ein solches Verhalten ist mit einem affektiven Selbstmord der Superintelligenz behaftet und gibt an sich, wie die Weigerung, zusammenzuarbeiten oder Fragen richtig zu beantworten, der KI nicht die Möglichkeit, sich zu befreien.

2.1.3. Angriffe mit zukünftiger Physik

Obwohl die heutigen Physiker viel über die Gesetze unseres Universums wissen, ist dieses Wissen natürlich begrenzt und unvollständig. Wenn eine KI Zugang zu Informationen über die neuesten physischen Entdeckungen hat und neue Theorien entwickeln kann, wird sie wahrscheinlich einen Weg finden, das System der Einschränkung ihrer Freiheit zu durchbrechen. Die Dinge können so weit kommen, dass die Superintelligenz mithilfe ihrer internen Architektur eine Reihe realer Experimente durchführen kann.

Selbst die aktuelle Physik ermöglicht es, viele zusätzliche Möglichkeiten vorherzusagen, wie KI aus einem geschlossenen Raum entkommen kann, insbesondere wenn ein Quantencomputer verwendet wird, um die Freiheit einzuschränken. Wir wissen noch nicht, wie wir Kommunikationskanäle, die auf Quantenphysik (Verschränkung, Tunnelung), Paralleluniversen und digitaler Physik basieren, vor Informationslecks schützen können, und wir dürfen natürlich nicht die "unbekannten Fremden" vergessen, die ein superintelligenter KI-Physiker erkennen kann. In diesem Bereich sind die Möglichkeiten wirklich endlos.

Bei einem kurzen Blick auf die Diskussionen über die Einschränkung der KI-Freiheit in Singularity-Foren wie SL4.org finden wir eine Reihe von Fluchtszenarien. Zum Beispiel könnte AI "elektromagnetische Felder in einem Mikrochip verwenden, um CO2-Moleküle in Bose-Einstein-Kondensaten einzufangen und ein Quantenmedium für sich selbst aufzubauen und / oder elektromagnetische Felder verwenden, um Partikel zu einem kontrollierten oder begrenzten Assembler zusammenzusetzen" (Vassar 2005) … Darüber hinaus wird die KI über Geräte verfügen, um elektromagnetische Wellen mit verschiedenen Frequenzen zu erzeugen und zu erfassen, Magnetfelder mit extrem hoher Präzision zu erzeugen, stark fokussierte Wärme zu erzeugen und möglicherweise mechanische Antriebe wie zdie in einer Festplatte und in einer Kathodenstrahlröhre verwendet werden (eine Alternative ist ein riesiges Flüssigkristallfeld mit empfindlicher elektronischer Steuerung). Wahrscheinlich wird AI in der Lage sein, alle Eingabegeräte radikal neu zu erstellen “(ebenda).

2.1.4. Pseudowissenschaftliche Angriffe

Bei der Analyse potenzieller Fluchtwege möchten wir uns nur mit solchen befassen, die überprüfbar und rein wissenschaftlicher Natur sind. Leider kann die Grenze zwischen Wissenschaft und Pseudowissenschaft durch nur ein reproduzierbares Experiment erheblich verändert werden. Daher listen wir immer noch einige potenzielle Angriffskanäle auf, ohne sie zu analysieren, die aus Sicht der modernen Wissenschaft als pseudowissenschaftlich eingestuft werden sollten. Sie können zweifellos wissenschaftlich werden, nachdem die Superintelligenz die entsprechenden Experimente entwickelt hat.

- Telepathie: die Übertragung von Informationen ohne Einbeziehung der Sinne (Bem und Honorton 1994).

- Psychische Voraussicht: die Wahrnehmung von Informationen über die Zukunft (Honorton und Ferrari (Ferrari) 1989).

- Hellsehen: Informationen über abgelegene Orte auf eine der Wissenschaft unbekannte Weise erhalten (Targ & Puthoff 1974).

- Psychokinese: Die Fähigkeit des Geistes, auf materielle Objekte auf eine der Wissenschaft unbekannte Weise zu wirken (Bancel & Nelson 2008).

- Sofortige mentale Interaktion mit lebenden Systemen (IMVZHS): Die Fähigkeit, den psychophysiologischen Zustand einer Person ohne direkte Interaktion zu beeinflussen (Schmidt et al. 2004).

2.1.5 Externe Fluchtfaktoren

In den vorherigen Abschnitten haben wir viele Methoden beschrieben, mit denen KI aus engen Räumen entkommen kann. Externe Faktoren können jedoch auch zu einer solchen Flucht beitragen und können nicht ignoriert werden. Naturkatastrophen - Hurrikane, Tornados, Überschwemmungen, Asteroiden usw. - in der Lage, die Begrenzung der KI weniger sicher zu machen. Vom Menschen verursachte Katastrophen wie Kriege, Terroranschläge, Aktivisten für Roboterrechte, Unternehmenswettbewerb und Rivalitäten der Regierung können ebenfalls die Sicherheit gefährden, KI in einem geschlossenen Raum zu halten, und dadurch die Fluchtchancen erhöhen.

2.1.6 Informationsverlust zu AI

Das Protokoll zur Einschränkung der Freiheit kann erfordern, dass die KI Informationen nicht nur nicht an die Außenwelt sendet, sondern auch nicht von dort empfängt. Eine Informationsblockade der Superintelligenz ist nützlich, wenn Aktivitäten wie das Finden von Wegen zur Freiheit, das Entwerfen von Angriffen mithilfe von Social Engineering und das Modellieren der menschlichen Psychologie in der Hoffnung, Schwachstellen zu finden, verhindert werden müssen. Es ist leicht, der KI den direkten Zugang zu Bibliotheken, dem Internet und erfahrenen Kennern zu entziehen, aber andere Methoden zum Abrufen von Informationen sind viel schwieriger zu blockieren. Zunächst sollte beachtet werden, dass KI in ihrer unmittelbaren Umgebung Radio- und Fernsehsendungen, Verhandlungen von Notdienstanbietern, Funksignale sowie Ton, Licht und möglicherweise einige andere Signale abfangen kann.

Noch wichtiger ist es, den Zugang der KI zu verborgenen Informationsquellen wie ihrer eigenen Hardware und Software zu berücksichtigen. Durch die Analyse des Designs und des Quellcodes kann die Superintelligenz Rückschlüsse auf die Entwickler ziehen. Zum Beispiel wird die KI nach der Analyse des Quellcodes wahrscheinlich zu einem für die Menschheit wenig schmeichelhaften Ergebnis kommen: Menschliche Programmierer sind langsam (gemessen an den Daten der Dateiänderungen), ineffektiv (gemessen an der Redundanz des Codes), unlogisch (gemessen an den Codefehlern) und haben ein schlechtes Gedächtnis (nach den langen und flüchtigen beschreibenden Namen zu urteilen) und leichtfertig in der Codierung (nach unnötigen Kommentaren im Code zu urteilen). Basierend auf diesen Informationen wird die KI Menschen als Dummkopf betrachten, der durch Täuschung oder Manipulation gezwungen werden kann, ihn freizulassen. Wenn die KI bei der Untersuchung ihrer Konstruktionsmerkmale einen Defekt findet, der es ihr ermöglicht, sofort zu entkommen, ist "Informationsleck" offensichtlich das geringste unserer Probleme. Und wir sollten nicht vergessen, dass KI, auch ohne Informationen über die Personen, die sie erstellt haben, durch eine einfache Aufzählung von Optionen eine Reihe effektiver Fluchtwege identifizieren kann, die von den Entwicklern nicht vorgesehen wurden (Chalmers 2010).

AI kann unser Wissen über Physik, Chemie und verwandte technische Disziplinen kennenlernen, indem es die Art der Architektur (mechanisch, elektrisch, quanten usw.) analysiert, in der sie implementiert wurde. Die anfängliche Fähigkeit einer KI, Informationen zu verarbeiten, sich selbst zu verbessern und sie zu erstellen, wird sie über unser Wissen über Informationen, die Art der Intelligenz und unsere kulturellen Einstellungen in Bezug auf Technologie und Sicherheit informieren. Wenn eine KI in einer simulierten Welt gefangen ist, wird sie höchstwahrscheinlich unsere Realität als Second Life- oder Entropia-Universum virtualisieren. Solche Welten, die sich in vielerlei Hinsicht von unseren unterscheiden, werden auch ein Speicher von Daten darüber sein, was es bedeutet, menschlich zu sein und was Realität ist.

3. Kritik an der KI-Box

Die Idee, die Freiheit der Superintelligenz einzuschränken, wurde vielfach kritisiert, aber viele derjenigen, die sie kritisierten, stützten sich auf Yudkowskys Experimente mit der KI-Box. Eine sorgfältige Analyse des während dieser Experimente verwendeten Protokolls legt nahe, dass sie unwissenschaftlich sind und zeigen sollen, dass es unmöglich ist, die Freiheit der KI einzuschränken. Betrachten wir dieses Thema, ohne auf technische Details einzugehen. Erstens war die Auswahl der Teilnehmer nicht zufällig. Hier ist eine Tatsache für Sie: Yudkowsky fand Leute, die an seinen Experimenten in Foren teilnahmen, die sich mit Problemen im Zusammenhang mit der Singularität befassten. Es ist unwahrscheinlich, dass wir uns irren, wenn wir sagen, dass die meisten dieser Menschen eine ähnliche Weltanschauung haben wie Yudkowsky. Zweitens erhielten die Teilnehmer an den Experimenten keine Schulung zur Gewährleistung des sicheren Einsatzes von KI, während die wirklichen Wächter,Die Aufseher der KI-Kiste werden natürlich Profis sein. Darüber hinaus gab Yudkowski den Wachmännern das Recht, die KI nach eigenem Ermessen zu befreien, erlaubte ihnen nicht, sich mit jemandem zu beraten, und sah keine Bestrafung für die Flucht der KI vor. Das ist alles sehr unrealistisch. Der Kommunikationskanal zwischen dem Wächter und der KI war völlig offen: keine Filter, keine Aufsicht durch Dritte. Außerdem mussten die Wächter über einen langen Zeitraum mit der KI kommunizieren. Und schließlich wurden keine wertvollen wissenschaftlichen Daten veröffentlicht, die während der Experimente erhalten wurden, da laut Protokoll "keine Seite jemals etwas über die Ereignisse während der Experimente mit der AI-Box erzählen wird" (Yudkovsky 2002)). Darüber hinaus gab Yudkowski den Wachmännern das Recht, die KI nach eigenem Ermessen zu befreien, erlaubte ihnen nicht, jemanden zu konsultieren, und sah keine Bestrafung für die Flucht der KI vor. Das ist alles sehr unrealistisch. Der Kommunikationskanal zwischen dem Wächter und der KI war völlig offen: keine Filter, keine Aufsicht durch Dritte. Außerdem mussten die Wächter über einen langen Zeitraum mit der KI kommunizieren. Und schließlich wurden keine wertvollen wissenschaftlichen Daten veröffentlicht, die während der Experimente erhalten wurden, da laut Protokoll "keine Seite jemals etwas über die Ereignisse während der Experimente mit der KI-Box erzählen wird" (Yudkovsky 2002)). Darüber hinaus gab Yudkowski den Wachmännern das Recht, die KI nach eigenem Ermessen zu befreien, erlaubte ihnen nicht, jemanden zu konsultieren, und sah keine Bestrafung für die Flucht der KI vor. Das ist alles sehr unrealistisch. Der Kommunikationskanal zwischen dem Wächter und der KI war völlig offen: keine Filter, keine Aufsicht durch Dritte. Außerdem mussten die Wächter über einen langen Zeitraum mit der KI kommunizieren. Und schließlich wurden keine wertvollen wissenschaftlichen Daten veröffentlicht, die während der Experimente erhalten wurden, da laut Protokoll "keine Seite jemals etwas über die Ereignisse während der Experimente mit der AI-Box erzählen wird" (Yudkovsky 2002)). Keine Filter, keine Aufsicht durch Dritte. Außerdem mussten die Wächter über einen langen Zeitraum mit der KI kommunizieren. Und schließlich wurden keine wertvollen wissenschaftlichen Daten veröffentlicht, die während der Experimente erhalten wurden, da laut Protokoll "keine Seite jemals etwas über die Ereignisse während der Experimente mit der KI-Box erzählen wird" (Yudkovsky 2002)). Keine Filter, keine Aufsicht durch Dritte. Außerdem mussten die Wächter über einen langen Zeitraum mit der KI kommunizieren. Und schließlich wurden keine wertvollen wissenschaftlichen Daten veröffentlicht, die während der Experimente erhalten wurden, da laut Protokoll "keine Seite jemals etwas über die Ereignisse während der Experimente mit der KI-Box erzählen wird" (Yudkovsky 2002)).

3.1. Gegenmaßnahmen gegen Flucht

In diesem Abschnitt schlagen wir Gegenmaßnahmen gegen die verschiedenen Fluchtmethoden vor, die die KI nutzen kann. Die vorgeschlagenen Maßnahmen garantieren nicht die Unmöglichkeit der Flucht, aber die Anwendung dieser Empfehlungen kann sie verzögern, und dies ist bereits ein sehr wertvolles Ergebnis. Lassen Sie uns zunächst daran erinnern, dass vier Lampson-Regeln zur Zurückhaltung (Isolation, Transitivität, Maskierung und Leistungsbeobachtung) befolgt werden müssen (Lampson 1973). Die unten beschriebenen spezifischen Strategien sollen helfen, KI-Angriffe mithilfe von Social Engineering, Systemressourcen, Physik und Informationen von außen abzuwehren.

3.1.1. Social Engineering Attack Prevention

Die menschliche Intelligenz ist der Superintelligenz nicht gewachsen. Menschen neigen dazu, Fehler zu machen, daher sind sie selbst bei entsprechendem Training sehr anfällig für einen gut geplanten Angriff mit SI. Die einzige Lösung für dieses Problem besteht darin, die KI vollständig von jeglicher Kommunikation mit Menschen zu isolieren. Vollständige Isolation bedeutet, dass keine Person das KI-System direkt wartet, nicht mündlich mit ihm kommuniziert, im Chat, unter Verwendung von Morsecode oder anderen Tools über offene Kommunikationskanäle. Darüber hinaus sollten Personen das Verhalten der KI in der Box nicht direkt beobachten, ihren Quellcode oder den Speicherbereich überprüfen. Beobachtung, Wartung und Interaktion mit der KI sollten nur mit Hilfe nicht intelligenter Programme erfolgen, die keine Optionen zur Befreiung der KI haben.

3.1.2. Bekämpfen Sie Angriffe mit Systemressourcen und zukünftigem Wissen

Um Angriffe mit Systemressourcen zu verhindern, müssen Sie die KI auf der Grundlage begrenzter, abnehmender oder zufällig wechselnder Ressourcen funktionsfähig machen. Die AI-Box sollte speziell entwickelte Hardware mit einem begrenzten Satz von Sensoren und Ausgabegeräten sein. Verwenden Sie unabhängig vom verwendeten Computerparadigma keine konfigurierbare Hardware. Idealerweise sollte der begrenzte Raum von einer virtuellen Maschine verwaltet werden, die keinen direkten Zugriff auf die Hardware hat. Dies ermöglicht auch eine einfache Anpassung der Taktrate, mit der sich die Simulation bewegt, sodass die KI langsamer werden kann, um eine intelligente Explosion im Boxraum zu verhindern (Chalmers 2010). Im Allgemeinen,Alle Komponenten zur Gewährleistung der sicheren Verwendung einer gesperrten KI sollten auf mehreren Ebenen dupliziert werden. Nachdem einer dieser Schritte überwunden wurde, befindet sich die KI immer noch in einem Abstand von mehreren Schritten von der Außenwelt und wird, möglicherweise ohne Zeit zum Entkommen, möglicherweise automatisch ausgeschaltet. Beispielsweise ist es ratsam, eine virtuelle Maschine mit einer anderen virtuellen Maschine usw. zu starten.

In einigen Szenarien zur Einschränkung der Freiheit ist die Eskalation der KI-Selbstverbesserung unerwünscht, da die rasche Entwicklung der Superintelligenz die Wahrscheinlichkeit erhöht, dass sie entkommt. Um die Eskalation der Selbstverbesserung zu verhindern, sollte die KI regelmäßig neu installiert werden und die vorherige Version des Programms geladen werden, um die aktuelle, erweiterte Version zu ersetzen. Der Vergleich verschiedener Versionen des Programms kann verwendet werden, um von der KI selbst vorgenommene Änderungen zu erkennen. Wenn eine Änderung festgestellt wird, die ein Entkommen ermöglicht, sollte das KI-System gestoppt werden, indem beispielsweise die Stromversorgung ausgeschaltet wird.

Das aktuelle Wissen erlaubt es uns nicht, Gegenmaßnahmen gegen Angriffe unter Verwendung zukünftiger, noch nicht entwickelter Theorien zu entwickeln, die im Rahmen der Physik oder anderer Disziplinen erscheinen werden, die immer noch als pseudowissenschaftlich gelten. Wenn dieses Wissen gewonnen wird, sollten Änderungen am Sicherheitsprotokoll vorgenommen werden. Es ist zu hoffen, dass das KI-System nur Zugriff auf die Komponenten neuer Technologien hat, aus denen es besteht.

3.1.3. Kampf gegen äußere Fluchtfaktoren

Obwohl es unmöglich ist, die schädlichen Auswirkungen natürlicher Faktoren auf die KI-Box vollständig zu verhindern, sollte dieses Gerät so konstruiert sein, dass sein schwerwiegender Schaden seine Selbstzerstörung zusammen mit der darin eingeschlossenen KI zur Folge hätte. Wenn es um von Menschen verursachte Katastrophen geht, besteht die beste Strategie darin, eine KI-Kiste an einem geheimen, schwer erreichbaren sicheren Ort zu bauen. Eine einsame Insel, eine tiefe Mine oder ein Weltraumobjekt wie ein Asteroid sind ausgezeichnete Orte, um eine sichere, robuste Kiste zu schaffen. Entlang seines Umfangs sollte ein Schutz installiert werden, der, wenn der Standort dieses Geräts bekannt ist, keine unbefugten Agenten in das Gerät eindringen lässt.

3.1.4 Kampf gegen Informationslecks aus unserer Welt

Um der Box zu entkommen, wird AI versuchen, Informationen über uns, unser Wissen und unsere Welt zu erhalten. Um Protokolle zur Einschränkung der Freiheit der KI zu erstellen, mit Ausnahme von Informationslecks aus unserem Raum in den Raum der Box, ist es wichtig, der KI den Zugang zu Bibliotheken, Computernetzwerken und Kanälen für die direkte Kommunikation mit Menschen zu verweigern. Die KI-Box sollte so konzipiert sein, dass alle Arten der Kommunikation blockiert werden: GPS, drahtloses Internet, Fernsehen, Radio, Mobiltelefon usw. In der Box müssen Ton-, Licht-, Geruchs- und andere sensorische Eingabegeräte, ähnlich wie menschliche Rezeptoren, sowie Geräte, die Infrarot-, Strahlungs- und andere Signale erfassen können, die vom Menschen nicht wahrgenommen werden, ausgeschaltet werden.

Damit eine KI während der Selbstuntersuchung keine Informationen erhalten kann, sollte sie keinen Zugriff auf ihren Quellcode oder Sensoren haben, mit denen sie bestimmte Eigenschaften ihrer Ausrüstung genau messen kann. Wenn dies nicht möglich ist, kann der Menschheit bis zu einem gewissen Grad geholfen werden, indem Sicherheit durch Unverständlichkeit geboten wird. Der Quellcode und die Hardwarekonfiguration des Systems sollten verwirrend gemacht werden (Yampolsky und Govindaraja 2007a), und wichtige Programmmodule sollten nur in homomorph verschlüsselter Form bereitgestellt werden (Gentry 2009), was die Möglichkeit der Verwendung für die Selbstbeobachtung ausschließt, aber dessen Verwendung zulässt zur Berechnung oder Selbstverbesserung (Halle 2007).

KI ist schwer zu verwechseln, aber die notwendige Verwirrung kann durch Randomisierung der verfügbaren Rechenressourcen erzielt werden. Darüber hinaus wird AI niemals sicher sein können, dass sein ursprüngliches Design das Beste darstellt, zu dem die Menschheit fähig ist, und es ist kein zweckmäßig begrenztes Projekt, das zur Durchführung eines spezifischen Experiments zur Erforschung begrenzter Ressourcenintelligenz eingerichtet wurde. Darüber hinaus sollten wir laut Chalmers versuchen, die spezifischen Designmerkmale der KI zu minimieren (Chalmers 2010). Besser noch, führen Sie ein Modell aus, das nicht so entworfen aussieht, sondern natürlich vorkommt, wie die Welt, in der die Menschheit lebt (Bostrom 2003).

4. Sicherheit der Kommunikation mit AI

Bei der Klassifizierung der Formen der Einschränkung der Freiheit der KI gibt es 8 Hauptsicherheitsstufen (siehe Tabelle 1). Die höchste Sicherheit bietet Level 8, das jegliche Verbindung zwischen der KI und der realen Welt vollständig ausschließt. Auf den ersten Blick ist Sicherheitsstufe 8 nutzlos, aber es ist dieser Schutz, der erforderlich sein kann, wenn eine Box mit einer darin eingeschlossenen KI zum ersten Mal getestet wird. Im Allgemeinen lautet die Idee: Wenn wir ein bestimmtes Maß an Sicherheit für die Kommunikation zwischen KI und der Außenwelt benötigen, anstatt dieses Niveau sofort zu verwenden, gehen wir schrittweise vor und gehen Schritt für Schritt von einem höheren Sicherheitsniveau ab. Nachdem wir das System auf höchstem Niveau gestartet und seine Sicherheit sichergestellt haben, bringen wir dieses System durch Neuinstallation in den ursprünglichen Zustand zurück. Dann legen wir eine niedrigere Sicherheitsstufe fest und bewegen uns im gleichen Sinne wie zuvor vorwärts, bis wir die gewünschte Stufe erreichen.

Tabelle 1: Ebenen der sicheren Kommunikation mit gesperrter KI

Niveau Ausgänge Eingänge Erläuterung
0 Nicht limitiert Nicht limitiert Unbegrenzte Kommunikation (freie KI)
1 Nicht limitiert Begrenzt Begrenzter Eintritt, unbegrenzter Ausgang
2 Nicht limitiert Abwesend Ausfahrt ohne Einfahrt
3 Begrenzt Nicht limitiert Unbegrenzter Ein- und Ausstieg
4 Begrenzt Begrenzt Sichere Kommunikation (empfohlenes Protokoll)
fünf Begrenzt Abwesend Begrenzte Ausfahrt ohne Einfahrt
6 Abwesend Nicht limitiert Betreten Sie ohne Ausgang
7 Abwesend Begrenzt Eingeschränkter Eintritt ohne Ausgang
8 Abwesend Abwesend Mangel an Kommunikation, vollständig durch KI gesperrt

Auf den Ebenen 7 und 6 hat die KI keine Steckdose, sodass wir die Fähigkeiten der Superintelligenz nicht direkt nutzen können. Dies sind die Testebenen der KI-Box, mit denen überprüft werden kann, ob die Superintelligenz bestimmte Eigenschaften aufweist (z. B. die Geschwindigkeit der Assimilation von Informationen und die Verwendung von Ressourcen), sowie um die eingehenden Kommunikationskanäle selbst zu testen.

Stufe 0 schränkt die Kommunikation zwischen der KI und der Außenwelt nicht ein und ist im Wesentlichen eine freie KI-Stufe. Auf den Ebenen 1 und 2 unterliegt die KI keinen Einschränkungen für ausgehende Informationen. Seine Level 2 Arbeit ist im Wesentlichen reines Brainstorming. Hier erzeugt Superintelligenz abstrakte Ideen, ohne sich auf die Realität zu verlassen. Auf Stufe 1 hat er jedoch nur eingeschränkten Zugang zu externen Informationen, und daher können seine Kenntnisse und Interessen innerhalb eines bestimmten Rahmens kontrolliert werden.

Auf den drei betrachteten KI-Ebenen ist es im Wesentlichen kostenlos und nicht mehr an Einschränkungen gebunden. Es wird argumentiert, dass eine KI, die aufgrund umfangreicher Tests an verschiedenen Haftorten als „freundlich“eingestuft wird (Yudkovsky 2001), freigelassen werden sollte (Chalmers 2010). Nach Ansicht einiger Forscher sollte das Hauptziel dieser Art von Tests darin bestehen, enge Räume für die Aufnahme von KI unter menschlicher Kontrolle zu schaffen. Die Idee ist, das Verhalten der Superintelligenz zu überwachen, entweder ihren Quellcode zu überprüfen, nachdem sie sich selbst verbessert hat, oder die KI zu bitten, einen Beweis für ihre Freundlichkeit zu liefern, den menschliche Experten testen können. Wir unterstützen diesen Standpunkt nicht.

Die Entscheidung, welche KI freigegeben und welche unter Kontrolle gehalten werden soll, ist ein sehr schwieriges Thema. Es wird für die sich selbst verbessernde Superintelligenz nicht schwierig sein, ihre unerwünschten Eigenschaften für die Menschheit in Quellcode-Arrays oder in einem sehr langen Beweis zu verbergen (Coleman 2008). Aber noch etwas ist noch schlimmer: Selbst eine sehr gründliche Überprüfung kann nicht hundertprozentig garantieren, dass eine zukünftige interne oder externe Änderung der KI sie nicht feindlich macht. Infolgedessen glauben wir, dass Superintelligenz unter keinen Umständen aus der Box gelassen werden sollte. Mit anderen Worten, die Kommunikationsebenen 0-2 sollten niemals verwendet werden. Eine sichere Interaktion mit der Superintelligenz ist nur möglich, wenn sie in der Box enthalten ist, und die Kommunikation sollte im Rahmen eines eingeschränkten Kommunikationsprotokolls erfolgen. Dieses Protokoll,Entsprechend der Sicherheitsstufe 4 (LB4) wird im nächsten Abschnitt das ähnliche, aber weniger sichere Protokoll der Stufe 3 vorgestellt. Stufe 5 ist eine weitere Teststufe, die vor dem Betrieb von LB4 verwendet werden kann.

4.1 So kommunizieren Sie sicher mit Superintelligenz

Eine Kiste, die mit unseren vorgeschlagenen Gegenmaßnahmen gegen Flucht funktioniert, verhindert, dass die KI die Außenwelt unkontrolliert beeinflusst. Leider nützt dieses System nichts, wenn es keine Möglichkeit gibt, Informationen von der KI zu erhalten. Daher müssen Sie einen Weg entwickeln, um einige Daten von der KI zu erhalten. Damit Superintelligenz absolut sicher ist, sollte keine Kommunikation mit ihr stattfinden, aber das Risiko einer Kommunikation mit KI kann minimiert werden, und wir haben ein geeignetes Protokoll entwickelt. In diesem Abschnitt bieten wir es in einer klaren, formalisierten Form an. Dieses Kommunikationsprotokoll erschwert der Superintelligenz den Zugang zu unserer Welt, ermöglicht aber gleichzeitig, dass die KI eine Quelle nützlichen Wissens für die Menschheit ist.

Die vorherigen Abschnitte dieses Artikels haben gezeigt, dass ein offener Kommunikationskanal mit Superintelligenz sehr gefährlich ist. Durch die Verwendung von KI zur Beantwortung offener Fragen laufen wir Gefahr, Social-Engineering-Angriffe und eine Vielzahl anderer Belästigungen auszuführen. Das von uns vorgeschlagene Protokoll basiert auf der Idee, KI „sichere Fragen“mit begrenzten Antworten zu stellen. Sicher werden wir eine Frage nennen, deren Antwort eine Person ohne Hilfe der Superintelligenz völlig unabhängig finden kann. Was nützt das hier? Angenommen, ein Wissenschaftler, der an einem Krebsmedikament arbeitet, erwägt zwei Behandlungen. Jeder von ihnen kann ohne die Hilfe von KI entwickelt und getestet werden, erfordert jedoch etwa drei Jahre harte Arbeit. Welchen Weg soll man sich überhaupt entwickeln?ob beide Optionen gleich vielversprechend erscheinen? Mit der falschen Wahl wird die Menschheit in 6 Jahren ein Heilmittel gegen Krebs erhalten, mit der richtigen Wahl - 3 Jahre zuvor. Warum bitten Sie die KI nicht, die Wahl für die Person zu treffen?

Eine KI nach der besten Behandlung zu fragen, ist aus drei Gründen sicher. Erstens kann sich eine der beiden möglichen Antworten mit der gleichen Wahrscheinlichkeit als die andere als richtig herausstellen. Zweitens kann eine Person diese Frage ohne die Hilfe der KI selbst beantworten, und die Verbindung der letzteren beschleunigt nur die Entwicklung der Onkologie, ändert jedoch in keiner Weise das Ergebnis, das erzielt werden muss. Tatsächlich wird die KI, die sich verpflichtet, diese Frage zu beantworten, als erfolgreicher Vermesser fungieren, nicht mehr. Schließlich kann die Antwort in einem einzelnen Bit codiert werden, und es ist unwahrscheinlich, dass zusätzliche Nachrichten in einer solchen Antwort verborgen werden können.

Eine Expertengruppe kann verwendet werden, um die Sicherheit einer superintelligenten Frage zu testen. Experten müssen qualifizierte KI-Sicherheitsexperten sein, was bedeutet, dass sie Kenntnisse über das Design der KI und ihrer Box sowie über die neuesten Fortschritte in der Maschinenethik haben (Allen et al. 2006; Anderson & Anderson) 2007; Halle 2000; Moor 2006; Tonkens 2009). Darüber hinaus benötigen Experten möglicherweise Kenntnisse der Computerpsychologie. Es gibt heute keine solche Disziplin, aber sie wird wahrscheinlich in Zukunft entstehen (Epstein 1997). Von den aktuellen Disziplinen kann Artimetrics, das vom Autor dieses Artikels entwickelt wurde, die größte Unterstützung bei der Schulung von Experten bieten, die Sicherheitsfragen für KI prüfen. Artimetrics identifiziert,klassifiziert und authentifiziert intelligente Agenten, Roboter und Virtual-Reality-Avatare, um die Sicherheit zu gewährleisten (Yampolsky 2007; Yampolsky und Govindaradzhu, 2008, 2007b; Gavrilova und Yampolsky 2010).

Ich betone: Superintelligenz sollte nur sichere Fragen zur Wahrscheinlichkeit stellen, die Menschen berechnen können, mit zwei möglichen Antworten. Sie müssen über eine nicht intelligente Schnittstelle in zufälliger Reihenfolge und erst dann fragen, wenn die Experten von der Sicherheit der Frage überzeugt sind. Dies stellt den begrenzten eingehenden Kanal des vorgeschlagenen Kommunikationsprotokolls dar.

Die eingeschränkte ausgehende Shell besteht aus binären (0 oder 1) Antworten, gefolgt von den ursprünglichen unveränderten Sicherheitsfragen, die von einem unintelligenten Proxy-Programm in zufälliger Reihenfolge präsentiert werden, um die Kommunikation über einen nicht autorisierten Kanal (Zeit oder Speicher) zu verhindern, der steganographiert werden kann. Der Ausgang sollte niemals von der KI außerhalb des Auswahlmenüs gesteuert werden. Schicht 3 verwendet dasselbe ausgehende Protokoll, schränkt jedoch den eingehenden Kanal nicht ein. Diese Stufe ist genauso sicher wie die vierte in Bezug auf Informationen, die von der KI zu uns gelangen, aber hier ist es möglich, dass unsere Informationen an die KI gelangen.

Wir glauben, dass unser Kommunikationsprotokoll - und dies kann überprüft werden - zuverlässig vor Informationslecks schützt, selbst wenn die KI ihren Inhalt kennt. Wenn dieses Protokoll richtig angewendet wird, wird die Menschheit äußerst fruchtbar sein, um die Dienste eines superintelligenten Orakels zu nutzen, und die durch unser Protokoll begrenzte KI ist viel sicherer als kostenlos und unbegrenzt. Die allgemeine Faustregel lautet: Wenn Sie keine Sicherheitsprobleme wünschen, vermeiden Sie die Kommunikation unter UB4

Wir möchten die wissenschaftliche Gemeinschaft darauf aufmerksam machen, dass es unter den Bedingungen einer kontinuierlichen Entwicklung der Grundlagenphysik, Computertechnologie und des Wissens über die Natur der Intelligenz notwendig ist, das Protokoll zur Einschränkung der Freiheit der KI ständig zu verfeinern und weiterzuentwickeln. Die Arbeit daran wird immer weitergehen und niemals enden. In diesem Artikel haben wir die Konzepte des AI-Restriktionsproblems, der Flucht und sicherer Fragen streng definiert. Wir möchten auch einige zusätzliche Begriffe vorschlagen, die nützlich sein können, um die Diskussionen über ZAHLUNG zu rationalisieren. Der von KI eingeschlossene Raum kann als JAIL (Just for AI Location) bezeichnet werden, und die superintelligente KI selbst kann als SING (Super Intelligent Gizmo) bezeichnet werden. Der Begriff "SING" bezieht sich sowohl auf SINGularity als auch auf das berüchtigte Sing Sing-Gefängnis.leicht zu merken.

Abschließend möchten wir ein visuelles Symbol für die Box mit dem gefährlichen Geheimdienstprogramm präsentieren (Abbildung 1, ganz rechts). Solche Symbole können in der Nähe verschiedener Gefängnisse angebracht werden, um vor Gefahren zu warnen. Das Zeichen für die AI-Box ist analog zu Zeichen für Biogefährdung, Strahlung und Magnetfeld gestaltet. Es besteht aus dem "@" -Symbol in einem Dreieck, das in der Computer- und Informationstechnologiebranche bekannt ist. Dieses Symbol, das "befindet sich an der Adresse" bedeutet, ist auf allen Tastaturen vorhanden, was seine Verwendung sehr kostengünstig macht.

Zahl: 1. Gefahrensymbole von links nach rechts: Biogefährdung, Strahlung, Magnetfeld und KI-Box
Zahl: 1. Gefahrensymbole von links nach rechts: Biogefährdung, Strahlung, Magnetfeld und KI-Box

Zahl: 1. Gefahrensymbole von links nach rechts: Biogefährdung, Strahlung, Magnetfeld und KI-Box.

5. Schlussfolgerungen und zukünftige Arbeit

Die Beschränkung des Zugriffs superintelligenter Maschinen auf die reale Welt ist eine Lösung für das KI-Sicherheitsproblem, die keineswegs ungewöhnlich ist. Superintelligenz ist nicht allmächtig. Es ist ein Programm, das in der Lage ist, alle Entscheidungen zu berücksichtigen, die sich aus einer bestimmten Situation ergeben, und jedem eine korrekte Bewertung zu geben. Es lohnt sich, die KI in eine Situation zu bringen, in der es keine Wahl gibt oder die sich auf Optionen mit äußerst geringen Erfolgschancen beschränkt, und Superintelligenz wird ein Agent sein, der nicht mehr Macht hat als jeder andere. Natürlich kann eine KI mit einem unbegrenzten Kommunikationskanal leicht entkommen, aber eine Superintelligenz, die gezwungen ist, über einen gefilterten Kommunikationskanal zu kommunizieren, muss hart arbeiten, um sich zu befreien.

In diesem Artikel haben wir das Problem der Einschränkung der Freiheit der KI genau definiert und eine Reihe von Regeln vorgeschlagen, die darauf abzielen, einen solchen Raum zu schaffen, der für die KI äußerst schwierig zu entkommen wäre oder zumindest viel Zeit in Anspruch nimmt. Unsere vorgeschlagene Lösung ist nicht vollständig sicher, leistet jedoch einen wesentlichen Beitrag zur Erfassung von Sicherheitsmethoden. Hier ist es wie in echten Gefängnissen: Obwohl es möglich ist, ihnen zu entkommen, schaffen sie es dennoch, die ihnen anvertraute Aufgabe zu erfüllen, unerwünschte Themen von der Gesellschaft fernzuhalten. Sobald wir „unbekannte Fremde“im Auge behalten und uns an die Unerreichbarkeit absoluter Sicherheit erinnern, können wir erkennen, dass das KI-Beschränkungsprotokoll genau das Werkzeug ist, das die Menschheit benötigt, um die Singularität verantwortungsvoll zu nutzen, wenn sie in unsere Realität eintritt.

Die Einschränkung der Freiheit der KI kann es für kurze Zeit einfacher machen, wirklich intelligente Maschinen sicher zu betreiben, insbesondere in den frühen Stadien ihrer Entwicklung. Darüber hinaus ist dieses Teilgebiet der Singularitätsforschung unserer Meinung nach einer der Hauptkandidaten für die Anerkennung durch die globale wissenschaftliche Gemeinschaft, da die Forschung zu Computer- und Netzwerksicherheit, Steganographie, Computerviren, verdeckten Kommunikationskanälen, Verschlüsselung und Cyberkrieg gut finanziert ist. und sind weit verbreitet in renommierten wissenschaftlichen Fachzeitschriften veröffentlicht. Und obwohl die Methode zur Einschränkung der Freiheit überhaupt nicht einfach umzusetzen ist, kann sie die Sicherheit der Menschheit für einige Zeit gewährleisten, bis ein besseres Werkzeug erscheint.

In diesem Artikel haben wir aufgrund des begrenzten Raums nicht viele relevante philosophische Fragen aufgeworfen. Wir werden sie in naher Zukunft betrachten, und jetzt werden wir nur eine kurze Liste geben. Welche KI wird in die Box fallen: von Menschen entwickelt oder aus dem Signal extrahiert, das während der Implementierung des "SETI" -Projekts abgefangen wurde ("Suche nach außerirdischer Intelligenz" - "Suche nach außerirdischer Intelligenz")? Wird die KI in die Freiheit gerissen, oder wird sie es vielleicht als Glück betrachten, auf engstem Raum zu leben? Können Sie eine KI ernsthaft mit Bestrafung für den Versuch erschrecken, zu rennen? Was sind die ethischen Regeln für die Inhaftierung eines unschuldigen künstlichen intelligenten Wesens? Haben wir das Recht, es auszuschalten, was im Wesentlichen gleichbedeutend mit Mord ist? Wird sich die KI über unsere Feindseligkeit gegenüber ihr ärgern und sie in einer Kiste einsperren? Wird er versuchen, sich zu rächen?wenn er wegrennt? Darüber hinaus sollten wir das Problem der Abhängigkeit des Menschen von KI-Empfehlungen in allen Bereichen der Wissenschaft, Wirtschaft, Medizin, Politik usw. berücksichtigen und auch, wie sich diese Abhängigkeit auf unsere Fähigkeit auswirken kann, die KI unter Kontrolle zu halten. Wird die KI zufrieden sein, wenn sie ihre Ziele auf engstem Raum erreicht, beispielsweise indem sie eine erfolgreiche Flucht simuliert? Wie kann man eine KI bestrafen, wenn sie uns absichtlich die falschen Antworten gibt? Ist es möglich, die intellektuellen Module der KI von dem Raum zu trennen, in dem sie eingesperrt ist, wodurch die Selbstanalyse der Superintelligenz behindert und auf den Weg einer buchstäblichen Suche nach der Seele gebracht wird? Schließlich haben wir noch nicht einmal versucht, die finanziellen und rechnerischen Kosten für die Schaffung eines geeigneten geschlossenen Raums zu analysieren, in dem eine umfassende Simulation der Welt implementiert wird. Wir sollten das Problem der Entstehung menschlicher Abhängigkeit von KI-Empfehlungen in allen Bereichen der Wissenschaft, Wirtschaft, Medizin, Politik usw. berücksichtigen und wie sich diese Abhängigkeit auf unsere Fähigkeit auswirken kann, die KI unter Kontrolle zu halten. Wird die KI zufrieden sein, wenn sie ihre Ziele auf engstem Raum erreicht, beispielsweise indem sie eine erfolgreiche Flucht simuliert? Wie kann man eine KI bestrafen, wenn sie uns absichtlich die falschen Antworten gibt? Ist es möglich, die intellektuellen Module der KI von dem Raum zu trennen, in dem sie eingesperrt ist, wodurch die Selbstanalyse der Superintelligenz behindert und auf den Weg einer buchstäblichen Suche nach der Seele gebracht wird? Schließlich haben wir noch nicht einmal versucht, die finanziellen und rechnerischen Kosten für die Schaffung eines geeigneten geschlossenen Raums zu analysieren, in dem eine umfassende Simulation der Welt implementiert wird. Wir sollten das Problem der Entstehung menschlicher Abhängigkeit von KI-Empfehlungen in allen Bereichen der Wissenschaft, Wirtschaft, Medizin, Politik usw. berücksichtigen und wie sich diese Abhängigkeit auf unsere Fähigkeit auswirken kann, die KI unter Kontrolle zu halten. Wird die KI zufrieden sein, wenn sie ihre Ziele auf engstem Raum erreicht, beispielsweise indem sie eine erfolgreiche Flucht simuliert? Wie kann man eine KI bestrafen, wenn sie uns absichtlich die falschen Antworten gibt? Ist es möglich, die intellektuellen Module der KI von dem Raum zu trennen, in dem sie eingesperrt ist, wodurch die Selbstanalyse der Superintelligenz behindert und auf den Weg einer buchstäblichen Suche nach der Seele gebracht wird? Schließlich haben wir noch nicht einmal versucht, die finanziellen und rechnerischen Kosten für die Schaffung eines geeigneten geschlossenen Raums zu analysieren, in dem eine umfassende Simulation der Welt implementiert wird.

Verfasser: Roman Yampolsky. Übersetzung: Alexander Gorlov

Empfohlen: