Werden Roboter In Der Lage Sein, Eine Seele Zu Finden: Emotionale Künstliche Intelligenz - Alternative Ansicht

Inhaltsverzeichnis:

Werden Roboter In Der Lage Sein, Eine Seele Zu Finden: Emotionale Künstliche Intelligenz - Alternative Ansicht
Werden Roboter In Der Lage Sein, Eine Seele Zu Finden: Emotionale Künstliche Intelligenz - Alternative Ansicht

Video: Werden Roboter In Der Lage Sein, Eine Seele Zu Finden: Emotionale Künstliche Intelligenz - Alternative Ansicht

Video: Werden Roboter In Der Lage Sein, Eine Seele Zu Finden: Emotionale Künstliche Intelligenz - Alternative Ansicht
Video: WEIBLICHER ROBOTER SAGTE, SIE WOLLE DIE MENSCHEN VERNICHTEN 2024, Kann
Anonim

Jedes Jahr werden die Entwicklungen auf dem Gebiet der künstlichen Intelligenz immer perfekter - Gesichtserkennungstechnologie, intelligente Sprachassistenten und sogar Kunst, die durch Algorithmen erstellt wurde, werden ein Teil unseres Lebens. Aber wird die KI in der Lage sein, die letzte Grenze menschlicher Fähigkeiten zu überschreiten und zu lernen, wie man Emotionen erlebt? Zusammen mit der Theorie- und Praxisplattform laden wir Sie ein, die Zukunft von Mensch und Maschine kennenzulernen.

Das Heilige versus Wissen

In der gewöhnlichen Sichtweise kann künstliche Intelligenz aufgrund unserer besonderen mentalen Organisation, die nicht in eine Maschine transplantiert werden kann, niemals der menschlichen Emotionalität nahe kommen. Im Gegensatz dazu ergibt sich die Herausforderung bei der Schaffung emotionaler KI aus der Tatsache, dass Menschen nicht so gut in Empathie sind. Wir sind überhaupt keine idealen emotionalen Maschinen, die die Gefühle anderer leicht entziffern können. Unser Einfühlungsvermögen wird durch einzigartige Erfahrungen, erlernte Stereotypen und individuelle psycho-emotionale Reaktionen stark eingeschränkt. Daher ist es unwahrscheinlich, dass ein Europäer aus der Mittelschicht versteht, welche Gefühle der Anführer eines afrikanischen Stammes ausdrückt, und umgekehrt.

Image
Image

Einerseits glauben wir, dass Emotionalität ein heiliges Geschenk ist, ein exklusives Privileg der Menschen. Andererseits wissen wir zu wenig darüber, sagt Sergey Markov, Spezialist für KI und maschinelles Lernen und Gründer des Portals 22century.ru. Seiner Meinung nach wird die Aufgabe der Wahrnehmung von Emotionalität als etwas Heiliges es ermöglichen, neue Methoden für das Studium von Empathie zu finden. Mithilfe von Reverse Engineering (Erforschung eines fertigen Geräts oder Programms, um zu verstehen, wie es funktioniert, und Entdeckung nicht offensichtlicher Möglichkeiten), Erforschung neuronaler Netze und maschinellen Lernens können Sie etwas grundlegend Neues über die menschliche Emotionalität lernen. „Maschinelles Lernen ermöglicht es in einer Reihe von Fällen, wie sie sagen, Harmonie mit Algebra zu glauben - zuverlässigeres Wissen auf der Grundlage von Big-Data-Statistiken ersetzt Vermutungen und Hypothesen“, glaubt Markov.

Kommunikation herstellen

Werbevideo:

Wir versuchen vielleicht nicht, Autos aus Neugier über Empathie zu unterrichten, aber die wachsende Anzahl automatisierter Systeme (von Sprachassistenten bis zu selbstfahrenden Autos) macht emotionale KI zu einem Muss. Die größte Herausforderung für Spezialisten für maschinelles Lernen besteht darin, die Arbeit mit verschiedenen Schnittstellen sowohl auf der Eingabeebene als auch im Prozess der Informationsausgabe zu vereinfachen. Die Häufigkeit der Kommunikation mit Computern nimmt offensichtlich zu, aber die Dienste und Systeme selbst verstehen noch nicht, warum wir das Telefon schütteln: vor Wut oder vor Lachen.

Emotionale Intelligenz ist bereits in vielen Geschäftsprojekten gefragt. Von Werbung, die durch Anpassung an den emotionalen Zustand eines potenziellen Kunden den Umsatz steigert, bis hin zu Erkennungstechnologien, die, nachdem sie die nervöseste Person in der Menge entdeckt haben, dazu beitragen, den Verbrecher zu fangen.

Die Forscher müssen mit emotionalen Intelligenz- und Sicherheitsbedenken arbeiten. „Entscheidungen, die von Computern getroffen werden, sollten nicht psychopathisch erscheinen. Wenn eine Maschine in einer Welt arbeitet, in der Menschen leben, muss sie in der Lage sein, "menschliche Umstände" zu berücksichtigen, dh zu Empathie fähig zu sein. Ein typisches Beispiel: Ein Roboterdiagnostiker, der eine ältere Person zu einer komplexen Operation schickt, muss die mit Stress verbundenen Risiken berücksichtigen. Ein unbemanntes Fahrzeug, das in einem bestimmten Kontext völlig ohne Empathie ist, kann ebenfalls Probleme verursachen “, sagt der Philosoph Kirill Martynov.

Alarmisten wie der Philosoph und Anthropozänspezialist Nick Bostrom, so Martynov, argumentieren, dass das Problem des "Sensibilitätsverlusts" in der Superintelligenz, das sich vor dem Hintergrund der menschlichen Ebene deutlich abhebt, durchaus real ist. Sie versuchen bereits, dieses Problem mithilfe gesetzlicher Beschränkungen zu verhindern. Mit diesem Ansatz sind KI-Schöpfer gesetzlich verpflichtet, die Entwicklung mit den Elementen emotionaler Intelligenz auszustatten, die für Empathie erforderlich sind.

Emotionen lehren

Die nicht triviale Aufgabe, emotionale KI zu erzeugen, wird mit dem Aufkommen neuer Werkzeuge wie maschinellem Lernen immer einfacher. Sergey Markov beschreibt diesen Prozess folgendermaßen: „Sie können mehrere hunderttausend Audioaufnahmen menschlicher Äußerungen aufnehmen und eine Gruppe von Personenmarkern bitten, eine Reihe von Markern des‚ emotionalen Alphabets 'mit jeder dieser Phrasen abzugleichen. Dann werden 80% der Phrasen zufällig ausgewählt - in dieser Stichprobe wird das neuronale Netzwerk darauf trainiert, emotionale Marker zu erraten. Die restlichen 20% können verwendet werden, um sicherzustellen, dass die künstliche Intelligenz ordnungsgemäß funktioniert. In einem anderen Lernmodell, das Markov beschreibt, gewinnt das neuronale Netzwerk mehr Unabhängigkeit. Darin kategorisiert die KI selbst Phrasen nach ähnlicher emotionaler Färbung, Sprachrate und Intonation und lernt später, ihre Aussagen basierend auf den empfangenen Kategorien zu synthetisieren. So oder so,Big Data wird zur Hauptressource für das Training künstlicher Intelligenz.

Evolutionsrasse

„Die Tatsache, dass wir unsere eigenen Emotionen als‚ real 'erleben, ist nur darauf zurückzuführen, dass unser kognitives System, das während der Evolution entstanden ist, so abgestimmt ist. Individuen, die in der Lage sind, Emotionen zu erfahren und ihr Verhalten zu kontrollieren, erhielten einen Vorteil in der evolutionären Rasse. Es ist unwahrscheinlich, dass Computer in der Lage sind, die reale Entwicklung von Primaten zu modellieren - in diesem Sinne werden ihre Emotionen nicht "real" sein ", glaubt Martynov.

Image
Image

Die Schlüsselfrage, sagt Martynov: Ist es möglich, die subjektiven Erfahrungen von Emotionen zu modellieren, wie Aristoteles die Seele nennen würde, und Descartes den Cogito? Die Wissenschaft gibt immer noch keine direkte Antwort auf diese Frage, und Philosophen versammeln Konferenzen über die Natur von Qualia (irreduzible Elemente subjektiver Erfahrung). Obwohl es Optimisten wie den Philosophen und Kognitionswissenschaftler Daniel Dennett gibt, die argumentieren, dass subjektive Erfahrung letztendlich die Fähigkeit ist, sich selbst und anderen zu erzählen, wie Sie sich gefühlt haben. Wir werden natürlich in naher Zukunft überzeugende verbale Berichte über Emotionen von Maschinen erhalten, denkt Martynov.

Aber mit hoher Wahrscheinlichkeit, so glaubt Sergey Markov, wird unsere gemeinsame Zukunft mit emotionaler künstlicher Intelligenz Formen annehmen, die heute mit dem stereotypen Gegensatz von Menschen und Maschinen nicht vorstellbar sind: Zeichnen Sie sogar eine herkömmliche Linie zwischen einer Person und dem Produkt ihrer Technologien. Emotionale Intelligenz spielt in diesem Szenario eine große Rolle. “

Empfohlen: