Wann Beginnt Künstliche Intelligenz, Menschliche Emotionen Zu Verstehen? - Alternative Ansicht

Inhaltsverzeichnis:

Wann Beginnt Künstliche Intelligenz, Menschliche Emotionen Zu Verstehen? - Alternative Ansicht
Wann Beginnt Künstliche Intelligenz, Menschliche Emotionen Zu Verstehen? - Alternative Ansicht

Video: Wann Beginnt Künstliche Intelligenz, Menschliche Emotionen Zu Verstehen? - Alternative Ansicht

Video: Wann Beginnt Künstliche Intelligenz, Menschliche Emotionen Zu Verstehen? - Alternative Ansicht
Video: Künstliche Intelligenz in 5 Minuten erklärt 2024, April
Anonim

Würden Sie einem Roboter vertrauen, wenn es Ihr Arzt wäre? Emotionale intelligente Maschinen sind möglicherweise nicht so weit von uns entfernt, wie sie scheinen. In den letzten Jahrzehnten hat künstliche Intelligenz die Fähigkeit, die emotionalen Reaktionen der Menschen zu lesen, dramatisch verbessert.

Emotionen zu lesen bedeutet jedoch nicht, sie zu verstehen. Wenn die KI sie selbst nicht erleben kann, wird sie uns jemals vollständig verstehen können? Und wenn nicht, riskieren wir, Robotern Eigenschaften zuzuweisen, die sie nicht haben?

Die neueste Generation künstlicher Intelligenz dankt uns bereits für die Zunahme der Datenmenge, von der Computer lernen können, sowie für die Steigerung der Verarbeitungsleistung. Diese Maschinen werden schrittweise in Angelegenheiten verbessert, die wir normalerweise ausschließlich Personen zur Ausführung gegeben haben.

Image
Image

Künstliche Intelligenz kann heute unter anderem Gesichter erkennen, Gesichtsskizzen in Fotografien verwandeln, Sprache erkennen und Go spielen.

Kriminelle identifizieren

Vor nicht allzu langer Zeit haben Wissenschaftler künstliche Intelligenz entwickelt, die anhand ihrer Gesichtszüge erkennen kann, ob eine Person ein Verbrecher ist. Das System wurde anhand einer Datenbank mit chinesischen Fotografien bewertet und die Ergebnisse waren einfach umwerfend. AI klassifizierte unschuldige Menschen fälschlicherweise in nur 6% der Fälle als Kriminelle und identifizierte 83% der Kriminellen erfolgreich. Die Gesamtgenauigkeit betrug fast 90%.

Werbevideo:

Dieses System basiert auf einem Ansatz namens "Deep Learning", der sich beispielsweise bei der Gesichtserkennung als erfolgreich erwiesen hat. Durch tiefes Lernen in Kombination mit einem "Gesichtsrotationsmodell" konnte künstliche Intelligenz feststellen, ob zwei Fotos das Gesicht derselben Person darstellen, selbst wenn sich die Beleuchtung oder der Winkel ändern.

Deep Learning schafft ein "neuronales Netzwerk", das auf der Annäherung des menschlichen Gehirns basiert. Es besteht aus Hunderttausenden von Neuronen, die in verschiedenen Schichten organisiert sind. Jede Ebene führt Eingabedaten, z. B. ein Gesichtsbild, auf eine höhere Abstraktionsebene, z. B. eine Reihe von Kanten in bestimmten Richtungen und Positionen. Außerdem werden automatisch die Funktionen hervorgehoben, die für die Ausführung einer bestimmten Aufgabe am relevantesten sind.

Angesichts des Erfolgs von Deep Learning ist es nicht verwunderlich, dass künstliche neuronale Netze Kriminelle von unschuldigen unterscheiden können - wenn es tatsächlich Gesichtszüge gibt, die sich zwischen beiden unterscheiden. Die Studie ermöglichte die Unterscheidung von drei Merkmalen. Einer ist der Winkel zwischen der Nasenspitze und den Mundwinkeln, der für Kriminelle im Durchschnitt 19,6% geringer ist. Die Krümmung der Oberlippe ist bei Kriminellen ebenfalls durchschnittlich 23,4% größer, und der Abstand zwischen den inneren Augenwinkeln ist durchschnittlich 5,6% enger.

Auf den ersten Blick deutet diese Analyse darauf hin, dass die veraltete Ansicht, dass Kriminelle anhand physischer Attribute identifiziert werden können, nicht so falsch ist. Dies ist jedoch nicht die ganze Geschichte. Bemerkenswerterweise sind die beiden wichtigsten Merkmale mit den Lippen verbunden, und dies sind unsere ausdrucksstärksten Gesichtsmerkmale. Die Fotos der in der Studie verwendeten Kriminellen erfordern einen neutralen Gesichtsausdruck, aber die KI hat es dennoch geschafft, versteckte Emotionen in diesen Fotos zu finden. Vielleicht so unbedeutend, dass die Leute sie nicht erkennen können.

Image
Image

Es ist schwer, der Versuchung zu widerstehen, sich Beispielfotos selbst anzusehen - hier sind sie. Das Dokument wird noch geprüft. Eine genaue Untersuchung zeigt ein leichtes Lächeln auf den Fotos der Unschuldigen. Da die Beispiele jedoch nicht viele Fotos enthalten, ist es unmöglich, Rückschlüsse auf die gesamte Datenbank zu ziehen.

Die Kraft des affektiven Rechnens

Dies ist nicht das erste Mal, dass ein Computer menschliche Emotionen erkennen kann. Der sogenannte Bereich "Affective Computing" oder "Emotional Computing" gibt es schon lange. Es wird angenommen, dass diese Maschinen menschliche Emotionen verstehen und angemessen darauf reagieren müssen, wenn wir bequem leben und mit Robotern interagieren wollen. Die Möglichkeiten in diesem Bereich sind sehr umfangreich.

Zum Beispiel verwendeten die Forscher Gesichtsanalysen, um Schüler zu identifizieren, die Schwierigkeiten mit computergestütztem Unterricht haben. AI wurde gelehrt, unterschiedliche Ebenen des Engagements und der Frustration zu erkennen, damit das System verstehen kann, wenn Schüler Jobs zu einfach oder zu komplex finden. Diese Technologie kann nützlich sein, um die Lernerfahrung auf Online-Plattformen zu verbessern.

Sony versucht, einen Roboter zu entwickeln, der emotionale Bindungen mit Menschen eingehen kann. Es ist noch nicht ganz klar, wie sie dies erreichen würde oder was genau der Roboter tun wird. Das Unternehmen versucht jedoch, "Hardware und Services zu integrieren, um ein emotional vergleichbares Erlebnis zu bieten".

Emotionale künstliche Intelligenz hat eine Reihe potenzieller Vorteile, sei es die Rolle des Gesprächspartners oder des Darstellers - sie kann sowohl den Verbrecher identifizieren als auch über die Behandlung sprechen.

Es gibt auch ethische Bedenken und Risiken. Wäre es richtig, einen Patienten mit Demenz auf einen KI-Begleiter verlassen zu lassen und ihm zu sagen, dass er emotional lebt, wenn er es nicht ist? Können Sie eine Person hinter Gitter bringen, wenn die KI sagt, dass sie schuldig ist? Natürlich nicht. Künstliche Intelligenz wird in erster Linie kein Richter sein, sondern ein Ermittler, der "verdächtige", aber sicherlich keine schuldigen Personen identifiziert.

Subjektive Dinge wie Emotionen und Gefühle sind der künstlichen Intelligenz schwer zu erklären, auch weil die KI keinen Zugang zu ausreichend guten Daten hat, um sie objektiv zu analysieren. Wird AI jemals Sarkasmus verstehen? Ein Satz kann in einem Kontext sarkastisch und in einem anderen völlig anders sein.

In jedem Fall wächst die Datenmenge und die Verarbeitungsleistung weiter. Mit wenigen Ausnahmen kann die KI in den nächsten Jahrzehnten lernen, verschiedene Arten von Emotionen zu erkennen. Aber konnte er sie jemals selbst erleben? Das ist ein strittiger Punkt.

ILYA KHEL