HAL 9000 Wird Niemals Erscheinen: Emotionen Sind Nicht Programmierbar - Alternative Ansicht

Inhaltsverzeichnis:

HAL 9000 Wird Niemals Erscheinen: Emotionen Sind Nicht Programmierbar - Alternative Ansicht
HAL 9000 Wird Niemals Erscheinen: Emotionen Sind Nicht Programmierbar - Alternative Ansicht

Video: HAL 9000 Wird Niemals Erscheinen: Emotionen Sind Nicht Programmierbar - Alternative Ansicht

Video: HAL 9000 Wird Niemals Erscheinen: Emotionen Sind Nicht Programmierbar - Alternative Ansicht
Video: Starte dein Gehirn neu, in nur 30 Sekunden 2024, September
Anonim

HAL 9000 ist eine der bekanntesten filmischen künstlichen Intelligenzen. Diese großartige Form des intelligenten Computers funktionierte auf dem Weg zum Jupiter in Stanley Kubricks legendärer Space Odyssey von 2001, die derzeit ihr 50-jähriges Bestehen feiert, nicht richtig. HAL kann sprechen, eine Person verstehen, ihre Mimik, Lippen lesen - und Schach spielen. Seine überlegene Rechenfähigkeit wird durch einzigartige menschliche Merkmale unterstützt. Er kann emotionales Verhalten interpretieren, argumentieren und Kunst schätzen.

Der Schriftsteller Arthur Clarke und der Filmemacher Stanley Kubrick haben HAL mit Emotionen ausgestattet und es zu einem der menschlichsten Bilder intelligenter Technologie gemacht. In einer der schönsten Szenen in Science-Fiction-Filmen sagt er, er habe "Angst", als Missionskommandant David Bowman nach einer Reihe mörderischer Ereignisse beginnt, seine Speichermodule abzuschalten.

HAL ist so programmiert, dass es die Besatzung des Discovery-Schiffs unterstützt. Er kontrolliert das Schiff mit Unterstützung seiner mächtigen künstlichen Intelligenz. Aber es wird schnell klar, dass er sehr emotional ist - er kann Angst, Sympathie fühlen, wenn auch ein wenig. Science Fiction Science Fiction, aber eine solche emotionale künstliche Intelligenz in unserer Realität ist im Moment einfach unmöglich. Jede Tiefe von Emotionen und Gefühlen, die Sie in der modernen Technologie finden, wird völlig falsch sein.

"Perfekte" künstliche Intelligenz

Wenn Bowman beginnt, die HAL-Funktionen im Film manuell zu optimieren, bittet er ihn, anzuhalten, und wenn wir eine erstaunliche Zerstörung der "mentalen" Fähigkeiten der HAL sehen, versucht die KI, sich zu beruhigen, indem sie "Daisy Bell" summt - dies ist wahrscheinlich das erste Lied, das ein Computer geschrieben hat.

Im Wesentlichen beginnen die Zuschauer zu spüren, dass Bowman HAL tötet. Das Herunterfahren sieht nach Rache aus, besonders nach dem, was aus den vorherigen Ereignissen des Films bekannt wurde. Aber wenn HAL in der Lage ist, emotionale Urteile zu fällen, wird die reale KI in Bezug auf Argumentation und Entscheidungsfindung definitiv eingeschränkt sein. Darüber hinaus werden wir trotz der Meinung von Futuristen niemals in der Lage sein, Emotionen so zu programmieren, wie es Science-Fiction-Autoren - die Schöpfer von HAL - getan haben, weil wir sie nicht verstehen. Psychologen und Neurowissenschaftler versuchen eindeutig herauszufinden, wie Emotionen mit der Wahrnehmung interagieren, konnten dies jedoch noch nicht.

In einer Studie unter Beteiligung von chinesisch-englischen Zweisprachigen untersuchten Wissenschaftler, wie die emotionale Bedeutung von Wörtern unbewusste mentale Prozesse verändern kann. Wenn den Teilnehmern positive und neutrale Wörter wie "Urlaub" oder "Baum" präsentiert wurden, extrahierten sie unbewusst chinesische Wortformen. Aber wenn Wörter negative Konnotationen hatten, wie "Mord" oder "Vergewaltigung", blockierte ihr Gehirn den Zugang zu ihrer Muttersprache - ohne ihr Wissen.

Werbevideo:

Argumentation und Emotion

Andererseits wissen wir genau, wie das Denken funktioniert. Wir können beschreiben, wie wir zu rationalen Entscheidungen gelangen, Regeln schreiben und diese Regeln in Prozess und Code umwandeln. Aber Emotionen bleiben ein mysteriöses evolutionäres Erbe. Ihre Quelle kann nicht zurückverfolgt werden, sie ist so groß und es ist nicht nur ein Attribut des Geistes, das absichtlich eingeführt werden kann. Um etwas zu programmieren, müssen Sie nicht nur wissen, wie es funktioniert, sondern auch warum. Argumentation hat Ziele und Vorgaben, Emotionen nicht.

Im Jahr 2015 wurde eine Studie mit Studenten der Bangor University durchgeführt, die Mandarin sprechen. Ihnen wurde angeboten, ein Spiel mit der Möglichkeit zu spielen, Geld zu gewinnen. In jeder Runde mussten sie die vorgeschlagene Wette akzeptieren oder auf dem Bildschirm belassen - zum Beispiel eine 50% ige Chance, 20 Punkte zu erhalten, eine 50% ige Chance, 100 zu verlieren.

Wissenschaftler schlugen vor, dass die Fähigkeit, ihre Muttersprache zu sprechen, ihnen Emotionen verleiht und sie sich anders verhalten, als würden sie in einer zweiten Sprache, Englisch, kommunizieren. Dies geschah: Wenn das Feedback auf Chinesisch war, war die Wahrscheinlichkeit, dass die Probanden in der nächsten Runde wetten, unabhängig vom Risiko um 10% höher. Dies zeigt, dass Emotionen das Denken beeinflussen.

Zurück zur KI, da Emotionen nicht vollständig in einem Programm implementiert werden können - egal wie komplex es auch sein mag -, wird sich die Argumentation eines Computers unter dem Druck seiner Emotionen niemals ändern.

Eine mögliche Interpretation des seltsamen "emotionalen" Verhaltens von HAL ist, dass es so programmiert wurde, dass es Emotionen in extremen Situationen simuliert, in denen Menschen auf der Grundlage des gesunden Menschenverstandes manipuliert werden müssen, aber ihr emotionales Selbst ansprechen, wenn der menschliche Geist leidet Scheitern. Dies ist der einzige Weg, um unter diesen Umständen eine überzeugende Simulation von Emotionen zu sehen.

Meiner Meinung nach werden wir niemals ein Auto schaffen, das fühlen, hoffen, fürchten oder sich wirklich freuen kann. Jede Annäherung wird ein Simulacrum sein, weil eine Maschine niemals ein Mensch sein wird und Emotionen standardmäßig der menschliche Teil sind.

Empfohlen: