Denken Wie Eine Person: Was Passiert, Wenn Sie Die Maschine Mit Der Theorie Des Bewusstseins Ausstatten - Alternative Ansicht

Inhaltsverzeichnis:

Denken Wie Eine Person: Was Passiert, Wenn Sie Die Maschine Mit Der Theorie Des Bewusstseins Ausstatten - Alternative Ansicht
Denken Wie Eine Person: Was Passiert, Wenn Sie Die Maschine Mit Der Theorie Des Bewusstseins Ausstatten - Alternative Ansicht

Video: Denken Wie Eine Person: Was Passiert, Wenn Sie Die Maschine Mit Der Theorie Des Bewusstseins Ausstatten - Alternative Ansicht

Video: Denken Wie Eine Person: Was Passiert, Wenn Sie Die Maschine Mit Der Theorie Des Bewusstseins Ausstatten - Alternative Ansicht
Video: Ebenen des Bewusstseins - Buchvorstellung 2024, Juli
Anonim

Im vergangenen Monat erlitt ein Team autodidaktischer KI-Spieler eine spektakuläre Niederlage gegen professionelle Esportspieler. Das Showmatch, das im Rahmen der Dota 2 The International World Championship stattfand, zeigte, dass das strategische Denken des Teams es einer Person immer noch ermöglicht, die Oberhand über ein Auto zu gewinnen.

Die beteiligten AIs waren mehrere von OpenAI entwickelte Algorithmen, von denen Elon Musk einer der Gründer ist. Ein Kollektiv von Digital Playern, die OpenAI Five, lernte durch Versuch und Irrtum, Dota 2 alleine zu spielen und miteinander zu konkurrieren.

Im Gegensatz zum gleichen Schach- oder Brettlogikspiel Go gilt das beliebte und schnell wachsende Multiplayer-Spiel Dota 2 als ein viel ernsthafteres Feld, um künstliche Intelligenz auf Stärke zu testen. Die Gesamtschwierigkeit des Spiels ist nur ein Faktor. Es reicht nicht aus, nur sehr schnell mit der Maus zu klicken und dem von Ihnen gesteuerten Charakter Befehle zu erteilen. Um zu gewinnen, ist es notwendig, Intuition und Verständnis dafür zu haben, was im nächsten Moment vom Gegner zu erwarten ist, und entsprechend diesem Wissen angemessen zu handeln, um gemeinsame Anstrengungen für ein gemeinsames Ziel - den Sieg - zu unternehmen. Der Computer verfügt nicht über diese Funktionen.

Bis heute hat selbst der herausragendste Deep-Learning-Computeralgorithmus nicht das strategische Denken, das erforderlich ist, um die Ziele aus den Aufgaben seines Gegners zu verstehen, sei es eine andere KI oder ein Mensch.

Laut Wang muss die KI über eine tiefe Kommunikationsfähigkeit verfügen, die sich aus dem wichtigsten kognitiven Merkmal einer Person ergibt - dem Vorhandensein von Intelligenz.

Mental State Model als Simulation

Werbevideo:

Mit vier Jahren beginnen Kinder normalerweise, ein grundlegendes soziales Merkmal zu verstehen: Ihre Gedanken unterscheiden sich von denen anderer. Sie beginnen zu verstehen, dass jeder das hat, woran er glaubt, seine Wünsche, Gefühle und Absichten. Und vor allem, wenn sie sich anstelle anderer vorstellen, können sie beginnen, das weitere Verhalten dieser Menschen vorherzusagen und sie zu erklären. In gewisser Weise beginnt ihr Gehirn, mehrere Simulationen von sich selbst in sich selbst zu erstellen, sich an die Stelle anderer Menschen zu setzen und sich in eine andere Umgebung zu versetzen.

Das mentale Zustandsmodell ist wichtig für das Selbstverständnis und spielt auch eine wichtige Rolle in der sozialen Interaktion. Andere zu verstehen ist der Schlüssel zu effektiver Kommunikation und zum Erreichen gemeinsamer Ziele. Diese Fähigkeit kann jedoch auch die treibende Kraft hinter falschen Überzeugungen sein - Ideen, die uns von der objektiven Wahrheit wegführen. Sobald beispielsweise die Fähigkeit zur Verwendung eines mentalen Zustandsmodells beeinträchtigt ist, geschieht dies bei Autismus, dann verschlechtern sich auch die natürlichen "menschlichen" Fähigkeiten, wie die Fähigkeit zu erklären und sich vorzustellen.

Laut Dr. Alan Winfield, Professor für Robotik an der Universität des Westens von England, ist das mentale Zustandsmodell oder die "Theorie des Geistes" ein Schlüsselmerkmal, das es der KI eines Tages ermöglichen wird, Menschen, Dinge und andere Roboter zu "verstehen".

Anstelle von Methoden des maschinellen Lernens, bei denen mehrere Schichten neuronaler Netze einzelne Informationen extrahieren und riesige Datenbanken "studieren", schlägt Winston einen anderen Ansatz vor. Anstatt sich auf das Lernen zu verlassen, schlägt Winston vor, die KI mit einem internen Modell von sich selbst und der Umgebung vorzuprogrammieren, das einfache "Was wäre wenn?" - Fragen beantwortet.

Stellen Sie sich zum Beispiel vor, zwei Roboter bewegen sich entlang eines engen Korridors. Ihre KI kann die Ergebnisse weiterer Aktionen simulieren, die ihre Kollision verhindern: Biegen Sie links, rechts ab oder fahren Sie geradeaus weiter. Dieses interne Modell wird im Wesentlichen als "Konsequenzmechanismus" fungieren und als eine Art "gesunder Menschenverstand" fungieren, der dazu beiträgt, die KI auf die nächsten richtigen Aktionen zu lenken, indem die zukünftige Entwicklung der Situation vorhergesagt wird.

In einer Studie, die Anfang dieses Jahres veröffentlicht wurde, demonstrierte Winston einen Prototyp eines Roboters, der solche Ergebnisse erzielen kann. Der Roboter nahm das Verhalten anderer vorweg und passierte den Korridor erfolgreich ohne Kollisionen. Tatsächlich ist dies nicht überraschend, stellt der Autor fest, aber der "aufmerksame" Roboter, der einen simulierten Ansatz zur Lösung des Problems verwendete, brauchte 50 Prozent länger, um den Korridor fertigzustellen. Trotzdem hat Winston bewiesen, dass seine Methode der internen Simulation funktioniert: "Dies ist ein sehr leistungsfähiger und interessanter Ausgangspunkt für die Entwicklung der Theorie der künstlichen Intelligenz", schloss der Wissenschaftler.

Winston hofft, dass die KI irgendwann die Fähigkeit erhält, Situationen zu beschreiben und mental zu reproduzieren. Ein internes Modell von sich selbst und anderen ermöglicht es einer solchen KI, verschiedene Szenarien zu simulieren und, was noch wichtiger ist, spezifische Ziele für jedes von ihnen zu definieren.

Dies unterscheidet sich erheblich von Deep-Learning-Algorithmen, die im Prinzip nicht erklären können, warum sie bei der Lösung eines Problems zu dieser oder jener Schlussfolgerung gekommen sind. Das Black-Box-Modell des Deep Learning ist tatsächlich das eigentliche Problem beim Vertrauen in solche Systeme. Dieses Problem kann beispielsweise bei der Entwicklung von Pflegerobotern für Krankenhäuser oder ältere Menschen besonders akut werden.

Eine KI, die mit einem mentalen Zustandsmodell bewaffnet ist, könnte sich in die Lage ihrer Meister versetzen und richtig verstehen, was von ihr gewünscht wird. Dann konnte er geeignete Lösungen identifizieren und, nachdem er der Person diese Entscheidungen erklärt hatte, die ihm zugewiesene Aufgabe bereits erfüllen. Je weniger Unsicherheit bei Entscheidungen besteht, desto mehr Vertrauen besteht in solche Roboter.

Mental State Model in einem neuronalen Netzwerk

DeepMind verfolgt einen anderen Ansatz. Anstatt einen Algorithmus für den Mechanismus der Konsequenzen vorzuprogrammieren, haben sie mehrere neuronale Netze entwickelt, die eine Ähnlichkeit mit einem Modell des kollektiven psychologischen Verhaltens aufweisen.

Der AI-Algorithmus "ToMnet" kann Aktionen durch Beobachtung anderer Neutronennetzwerke lernen. ToMNet selbst ist ein Kollektiv von drei neuronalen Netzen: Das erste basiert auf den Besonderheiten, andere AIs nach ihren neuesten Aktionen auszuwählen. Die zweite bildet ein allgemeines Konzept der aktuellen Stimmung - ihre Überzeugungen und Absichten zu einem bestimmten Zeitpunkt. Das kollektive Ergebnis der Arbeit zweier neuronaler Netze wird vom dritten empfangen, das basierend auf der Situation weitere Aktionen der KI vorhersagt. Wie beim Deep Learning wird ToMnet effektiver, da es Erfahrungen sammelt, indem es anderen folgt.

In einem Experiment "beobachtete" ToMnet, wie drei KI-Agenten in einem digitalen Raum manövrierten und bunte Kisten sammelten. Jede dieser KI hatte ihre eigene Besonderheit: Eine war "blind" - konnte die Form und Platzierung im Raum nicht bestimmen. Der andere war ein "Sklerotiker": Er konnte sich nicht an seine letzten Schritte erinnern. Der dritte konnte sehen und sich erinnern.

Nach dem Training begann ToMnet, die Präferenzen jeder KI vorherzusagen, indem sie ihre Aktionen beobachtete. Zum Beispiel bewegte sich der "Blinde" ständig nur entlang der Wände. ToMnet erinnerte sich daran. Der Algorithmus war auch in der Lage, das zukünftige Verhalten der KI korrekt vorherzusagen und, was noch wichtiger ist, zu verstehen, wann die KI auf eine falsche Darstellung der Umgebung stieß.

In einem Test programmierte ein Team von Wissenschaftlern eine KI für "Myopie" und änderte die Raumaufteilung. Die Agenten mit normaler Sicht passten sich schnell an das neue Layout an, aber der kurzsichtige Mann folgte weiterhin seinen ursprünglichen Routen und glaubte fälschlicherweise, dass er sich noch in der alten Umgebung befand. ToMnet bemerkte diese Funktion schnell und sagte das Verhalten des Agenten genau voraus und setzte sich an seine Stelle.

Laut Dr. Alison Gopnik, einer Entwicklungspsychologin an der University of California in Berkeley, die nicht an diesen Studien beteiligt war, aber mit den Ergebnissen vertraut war, zeigen diese Ergebnisse, dass neuronale Netze eine erstaunliche Fähigkeit besitzen, verschiedene Fähigkeiten durch Beobachtung anderer selbst zu erlernen. Gleichzeitig ist es nach Ansicht des Experten noch sehr früh zu sagen, dass diese AIs ein künstliches Modell des mentalen Zustands entwickelt haben.

Laut Dr. Josh Tenebaum vom Massachusetts Institute of Technology, der ebenfalls nicht an der Studie beteiligt war, ist ToMnets "Verständnis" stark an den Kontext der Lernumgebung gebunden - denselben Raum und bestimmte KI-Agenten, deren Aufgabe es war, Kisten zu sammeln. Diese Einschränkung innerhalb eines bestimmten Rahmens macht es ToMnet weniger effektiv, das Verhalten in radikal neuen Umgebungen vorherzusagen, im Gegensatz zu denselben Kindern, die sich an neue Situationen anpassen können. Der Algorithmus wird laut dem Wissenschaftler nicht mit der Modellierung der Handlungen einer völlig anderen KI oder Person fertig.

In jedem Fall zeigt die Arbeit von Winston und DeepMind, dass Computer beginnen, Grundlagen des "Verständnisses" voneinander zu zeigen, auch wenn dieses Verständnis immer noch nur rudimentär ist. Und wenn sie diese Fähigkeit weiter verbessern und sich immer besser verstehen, wird die Zeit kommen, in der Maschinen die Komplexität und Komplexität unseres eigenen Bewusstseins verstehen können.

Nikolay Khizhnyak

Empfohlen: