Künstliche Intelligenz Kann Emotionen Erleben - Alternative Ansicht

Inhaltsverzeichnis:

Künstliche Intelligenz Kann Emotionen Erleben - Alternative Ansicht
Künstliche Intelligenz Kann Emotionen Erleben - Alternative Ansicht

Video: Künstliche Intelligenz Kann Emotionen Erleben - Alternative Ansicht

Video: Künstliche Intelligenz Kann Emotionen Erleben - Alternative Ansicht
Video: KI: Künstlicher Intelligenz kann Emotionen erfassen. Im Gespräch mit Derek Woodgate Futurist 2024, Juni
Anonim

In den letzten Jahren, als das Gebiet der künstlichen Intelligenz (KI) explodiert ist, haben viele Wissenschaftler, darunter Stephen Hawking, wiederholt Bedenken hinsichtlich der mit KI verbundenen potenziellen Risiken geäußert. In dieser Hinsicht scheint es ein ziemlich gefährliches Unterfangen zu sein, KI mit einer reichen Palette von Emotionen auszustatten. Laut dem Professor der Abteilung für Kybernetik, NRNU MEPhI, sind alle diese Risiken vollständig kontrollierbar und in Zukunft wird "emotionale" Arbeit zu verlässlichen Helfern einer Person.

Ein universeller Roboter braucht menschliche Emotionen

Samsonovich sagt, dass ein Mann vor langer Zeit alle Arten von Geräten erfunden hat: eine Kamera, einen Camcorder, einen Taschenrechner, ein Telefon, heute sind alle diese Funktionen in einem kleinen Smartphone integriert. Gegenwärtig ist eine neue Ära in der Entwicklung von Computerprogrammen eingetreten. Es wird ein komplexes Programm benötigt, das fast die gesamte Arbeit unabhängig ausführen sowie effektiv mit einer Person kommunizieren und unsere Anforderungen genau verstehen kann. Um dieses Ziel zu erreichen, müssen Sie eine "emotionale" KI erstellen.

Laut dem Wissenschaftler ist es ein komplexes und ehrgeiziges Projekt, KI nicht mit Emotionen zu teilen. Erstens ist es erforderlich, einen ständigen Kontakt zwischen einem Menschen und einem Roboter herzustellen, um sicherzustellen, dass die KI die Anthroposemantik genau verstehen kann, und ein ähnliches Sprachsystem für Rückmeldungen zu verwenden. Zweitens, um einen solchen virtuellen Assistenten zu schaffen, der unabhängig in der realen Welt lernen, menschliche Emotionen und Gefühle verstehen und das Vertrauen einer Person genießen kann. Am Ende sollte es ein Hilfsroboter sein, der menschliche Befehle ausführt, außerdem ist es eine Erweiterung des menschlichen Körpers, wenn es mit Hilfe von Gedanken möglich ist, eine effektive Kontrolle über den Roboter auszuüben.

Sowohl für die künstliche Intelligenz als auch für den Menschen ist "Liebe stärker als Geld"

1942 stellte Isaac Asimov in seiner Geschichte "Round Dance" die "Drei Gesetze der Robotik" vor. Können diese drei Gesetze tatsächlich umgesetzt werden, um das KI-Verhalten zu regulieren?

Werbevideo:

Alexey Samsonovich findet die Antwort offensichtlich negativ. In Zukunft muss sich die KI unabhängig komplexen und unvorhersehbaren äußeren Umständen stellen und mithilfe der Datenanalyse unabhängig die beste Wahl treffen. Die drei Gesetze der Robotik sind nicht nur voller Schwachstellen und an und für sich vage, sondern können es der KI auch unmöglich machen, einen Schritt in die reale Welt zu machen. Laut dem Wissenschaftler können Menschen jedoch andere Methoden anwenden, um die KI so zu trainieren, dass ihr Verhalten für den Menschen günstig ist.

Derzeit führt Samsonovichs Team ein äußerst interessantes Experiment durch: Sie haben ein einfaches Computerspiel entwickelt, in dem drei virtuelle KI-Charaktere auf einem Planeten isoliert sind. Es ist notwendig, eine Rettungsaktion mit zwei Teleports durchzuführen. Diese beiden Teleporter können nur zusammen aktiviert werden. Am Ende werden nur zwei Charaktere gespeichert, und der verbleibende auf dem Planeten muss warten, bis einer seiner Kameraden auf ihn zurückkommt. So wird ein Test durchgeführt, ob sich die "emotionale" KI an Beziehungen in der menschlichen Gesellschaft anpassen, Vertrauen zu Partnern aufbauen, Sympathie für einen Freund in einer schwierigen Situation zeigen und ihm bewusst helfen kann. Das Forschungsteam wird dieses Experiment verwenden, um Daten zu sammeln und das emotionale KI-Modell zu optimieren.

Die Bedrohungen durch künstliche Intelligenz stammen aus der Menschheit

Nachdem das Computerprogramm AlphaGo Li Sedol im Kampf zwischen Mensch und Maschine im Go-Spiel besiegt hatte, machten sich die Leute Sorgen, dass die KI in Zukunft eine intellektuelle Überlegenheit gegenüber dem Menschen erlangen könnte. In diesem Zusammenhang sagt Samsonovich, dass der Sieg von AlphaGo den raschen Fortschritt der KI im Bereich des tiefen Lernens bedeutet, aber go ist ein Bereich, in dem es relativ einfach ist, mathematische Abstraktionen zu erstellen. Die Überlegenheit der KI gegenüber dem Menschen beruht auch heute noch auf der Rechenfähigkeit des ersteren. Im Wesentlichen wird diese Art von Vorteil immer noch vom Menschen bestimmt. Die Existenz und Entwicklung von KI in der Zukunft wird vollständig vom Menschen begrenzt sein. Das Wachstum seiner Fähigkeiten wird von der kontinuierlichen Optimierung von Algorithmen und Modellen durch den Menschen abhängen.

Laut dem Wissenschaftler muss der Grund noch in der Menschheit selbst gesucht werden, wenn die Entwicklung der KI eine Bedrohung für die Existenz der Menschheit darstellt. Er sagte: „Ich habe keinen Zweifel daran, dass es Menschen mit böswilliger Absicht geben wird, die versuchen werden, mithilfe von KI-Technologien gefährliche Roboter und sogar Roboterwaffen herzustellen. Tatsächlich folgt eine neue Art von Straftat ständig und unerbittlich der Entwicklung der elektronischen Computertechnologie. Zum Beispiel sind Viren und Malware vom Menschen abhängig.

Menschen können KI nach eigener Wahl mit positiven Emotionen ausstatten, so dass sie ein wirksamer Assistent für unsere Arbeit und unser Leben werden und überhaupt keine Katastrophe, die uns vom Erdboden abwischen wird."