Um Den Tod Zu Vermeiden, Muss Die Menschheit Künstliche Intelligenz Einsperren - Alternative Ansicht

Inhaltsverzeichnis:

Um Den Tod Zu Vermeiden, Muss Die Menschheit Künstliche Intelligenz Einsperren - Alternative Ansicht
Um Den Tod Zu Vermeiden, Muss Die Menschheit Künstliche Intelligenz Einsperren - Alternative Ansicht

Video: Um Den Tod Zu Vermeiden, Muss Die Menschheit Künstliche Intelligenz Einsperren - Alternative Ansicht

Video: Um Den Tod Zu Vermeiden, Muss Die Menschheit Künstliche Intelligenz Einsperren - Alternative Ansicht
Video: K.O. durch KI? – Leschs Kosmos [Ganze TV-Folge] | Harald Lesch 2024, Kann
Anonim

Superintelligente Computer oder Roboter, die die Existenz der Menschheit bedrohen, sind eine beliebte Handlung der Science-Fiction. Laut Wissenschaftlern kann ein solches Weltuntergangsszenario nur verhindert werden, indem ein virtuelles "Gefängnis" für künstliche Intelligenz (KI) geschaffen wird. Und dies muss getan werden, bevor er lernt, sich seiner selbst bewusst zu werden und sich zu verbessern.

Wenn Sie diesen Geist aus der Flasche lassen, dann kann er aus einem Orakel, das unsere Probleme löst, zu einer apokalyptischen Bedrohung werden, sagt Roman Yampolsky, ein Wissenschaftler an der Universität von Louisville, Kentucky, der auf dem Gebiet der Informatik arbeitet. Die Bedingungen, unter denen die KI enthalten sein wird, müssen sorgfältig geplant werden, damit sie sich nicht durch Bedrohungen, Bestechung, Versuchung oder Computerhacking befreien kann.

"Er kann viele Arten der Beeinflussung erfinden, eine komplexe sozio-technische Kombination ankurbeln und vorhandene Hardwarekomponenten für Zwecke verwenden, die wir uns nicht einmal vorstellen können", glaubt Yampolsky. - Diese Software bietet unbegrenzte Möglichkeiten zur Infektion von Computern und Netzwerken. KI kann Wege finden, um die menschliche Psyche zu beeinflussen, Menschen zu bestechen oder zu erpressen, die mit ihr in Kontakt stehen."

Die Entstehung eines neuen Bereichs wissenschaftlicher Forschung, der sich mit dem Problem der Schaffung eines "Gefängnisses" für künstliche Intelligenz befasst, hat zusätzliche Vorteile. Yampolsky ist sich sicher, dass diese Studien sehr nützlich sind, um die Computersicherheit und Kryptographie zu verbessern. Seine Vorschläge wurden in der März-Ausgabe des akademischen Journals des Journal of Consciousness Studies detailliert beschrieben.

So richten Sie eine Falle für Skynet ein

Für den Anfang können Sie künstliche Intelligenz in eine "virtuelle Maschine" einschließen. Lassen Sie es in einem normalen Betriebssystem funktionieren. Wenn Sie den AI-Zugriff auf die Software und Hardware des Host-Computers einschränken, wird es viel harmloser. Wie auch immer, intelligente KI wird nicht in der Lage sein, geheime Nachrichten an ihre menschlichen Unterstützer zu senden und den Morsecode mit Lüftern zu verprügeln.

Das Einsetzen künstlicher Intelligenz in einen Computer ohne Internetzugang ist ein guter Weg, um die heimtückischen Pläne von AI zu vereiteln, die Erde vor Ihnen und mir zu schützen. Im Falle eines anderen Fehlers können Forscher den KI-Denkprozess jederzeit verlangsamen, indem sie die Verarbeitungsgeschwindigkeit des Computers verlangsamen, regelmäßig die "Reset" -Taste drücken oder die KI von der Stromversorgung trennen.

Werbevideo:

Diese Sicherheitsmaßnahmen sind für den Umgang mit hochintelligenten und gefährlichen Computerviren konzipiert. Wie effektiv sie sich jedoch tatsächlich herausstellen, ist unklar.

Catch-22 (Roman des amerikanischen Schriftstellers J. Heller; ca. Mixednews) besagt, dass wir unsere Ideen erst dann in vollem Umfang testen können, wenn die Entwicklung der KI abgeschlossen ist. Um die Sicherheit der KI zu gewährleisten, müssen jedoch geeignete Maßnahmen entwickelt werden, sagt Yampolsky. "Die beste Option besteht darin, die Verwendung von KI-Systemen einzuschränken und diese Beschränkungen gegebenenfalls entsprechend den zunehmenden Fähigkeiten der KI zu ändern."

Image
Image

Der Wissenschaftler Roman Yampolsky schlug vor, das "@" - Zeichen oder andere heute verwendete Zeichen zu verwenden, um eine Strahlung oder biologische Bedrohung zu kennzeichnen, um das Vorhandensein einer mit künstlicher Intelligenz verbundenen Gefahr anzuzeigen.

Setzen Sie niemals einen menschlichen Sicherheitsbeamten auf das Fahrzeug

Während eines scheinbar unschuldigen Gesprächs mit einem Wachmann hindert nichts die KI daran, psychologische Techniken wie Freundschaft oder Erpressung anzuwenden. Ein Mensch kann bestochen werden, indem er ihm vollkommene Gesundheit, Unsterblichkeit oder sogar das Versprechen verspricht, Verwandte und Freunde aus der anderen Welt zurückzukehren. Oder mit Bedrohungen etwas erreichen.

Der sicherste Weg, mit der KI zu kommunizieren, besteht darin, bei der Lösung eines bestimmten wissenschaftlichen oder technischen Problems eine Antwort aus den vielen verfügbaren Optionen auszuwählen, erklärt Yampolsky. Dies wird dazu beitragen, das superschicke Orakel an der kurzen Leine zu halten.

Viele Forscher glauben, dass es trotz aller Vorsichtsmaßnahmen nicht funktioniert, den KI-Smartass auf unbestimmte Zeit gesperrt zu halten. Das jüngste Experiment von Eliezer Yudkowski, einem Forscher am Institut für Singularität zur Schaffung künstlicher Intelligenz, zeigte, dass selbst Intelligenz auf menschlicher Ebene eine Person täuschen und aus der Haft "entkommen" kann.

Trotzdem besteht Yampolsky darauf, die KI streng isoliert zu halten - es ist immer noch besser, als aufzugeben und ihr völlige Freiheit zu geben. Wenn die Entwicklung der KI jedoch den Punkt erreicht, an dem sie eine Person mithilfe des Unterbewusstseins (Vorhersage der Zukunft), der Telepathie oder der Telekinese manipulieren kann, sind die Folgen unvorhersehbar.

"Wenn sich eine solche KI selbst verbessert und ein Niveau erreicht, das die Fähigkeiten der menschlichen Intelligenz deutlich übertrifft, können sich die Konsequenzen nicht einmal vorstellen", warnt Yampolsky.

Empfohlen: