Moralische Maschine: Ingenieure Haben Künstliche Intelligenz Mit Moral Und Ethik Ausgestattet - Alternative Ansicht

Inhaltsverzeichnis:

Moralische Maschine: Ingenieure Haben Künstliche Intelligenz Mit Moral Und Ethik Ausgestattet - Alternative Ansicht
Moralische Maschine: Ingenieure Haben Künstliche Intelligenz Mit Moral Und Ethik Ausgestattet - Alternative Ansicht

Video: Moralische Maschine: Ingenieure Haben Künstliche Intelligenz Mit Moral Und Ethik Ausgestattet - Alternative Ansicht

Video: Moralische Maschine: Ingenieure Haben Künstliche Intelligenz Mit Moral Und Ethik Ausgestattet - Alternative Ansicht
Video: Künstliche Intelligenz. Können und sollen Maschinen moralisch handeln? 2024, Kann
Anonim

Je stärker die KI in unser tägliches Leben eintritt, desto häufiger muss sie sich komplexen moralischen und ethischen Dilemmata stellen, die für einen lebenden Menschen manchmal nicht so einfach zu lösen sind. Wissenschaftler am MIT versuchten, dieses Problem zu lösen, und versahen die Maschine mit der Fähigkeit, moralisch zu denken, basierend auf der Meinung der meisten lebenden Menschen.

Einige Experten glauben, dass der beste Weg, künstliche Intelligenz für den Umgang mit moralisch schwierigen Situationen zu trainieren, die Verwendung von „Crowd Experience“ist. Andere argumentieren, dass dieser Ansatz nicht ohne Verzerrungen sein wird und unterschiedliche Algorithmen auf der Grundlage desselben Datensatzes zu unterschiedlichen Schlussfolgerungen kommen können. Wie können sich Maschinen in einer solchen Situation befinden, die offensichtlich schwierige moralische und ethische Entscheidungen treffen muss, wenn sie mit echten Menschen arbeiten?

Intellekt und Moral

Während sich Systeme der künstlichen Intelligenz (KI) weiterentwickeln, versuchen Experten zunehmend, das Problem zu lösen, wie das System am besten eine ethische und moralische Grundlage für die Durchführung bestimmter Aktionen erhalten kann. Die beliebteste Idee ist, dass die KI Schlussfolgerungen zieht, indem sie menschliche Entscheidungen untersucht. Um diese Annahme zu testen, haben Forscher am Massachusetts Institute of Technology die Moral Machine entwickelt. Die Besucher der Website wurden gebeten, Entscheidungen darüber zu treffen, was ein autonomes Fahrzeug tun soll, wenn es vor einer ziemlich schwierigen Entscheidung steht. Dies ist beispielsweise ein bekanntes Dilemma in Bezug auf einen möglichen Unfall, bei dem es nur zwei Möglichkeiten für die Entwicklung von Ereignissen gibt: Das Auto kann drei Erwachsene treffen, um das Leben von zwei Kindern zu retten, oder es kann das Gegenteil bewirken. Welche Option sollten Sie wählen? Und ist es zum Beispiel möglich,das Leben einer älteren Person zu opfern, um eine schwangere Frau zu retten?

Infolgedessen stellte der Algorithmus eine riesige Datenbank zusammen, die auf den Testergebnissen basierte, und Ariel Procaccia vom Institut für Informatik der Carnegie Mellon University entschied sich, diese zur Verbesserung der Maschinenintelligenz zu verwenden. In einer neuen Studie luden er und einer der Macher des Projekts, Iyad Rahwan, die gesamte Basis des Moral Machine-Projekts in die KI und baten das System, vorherzusagen, wie das Auto auf dem Autopiloten auf ähnliche, aber immer noch leicht unterschiedliche Szenarien reagieren würde. Procaccia wollte zeigen, wie ein auf Abstimmungen basierendes System eine Lösung für „ethische“künstliche Intelligenz sein kann. “Der Autor der Arbeit selbst gibt zu, dass ein solches System natürlich noch zu früh ist, um in der Praxis angewendet zu werden, aber es beweist das Konzept hervorragend das ist möglich.

Kreuzmoral

Werbevideo:

Die Idee, zwischen zwei moralisch negativen Ergebnissen zu wählen, ist nicht neu. Die Ethik verwendet dafür einen eigenen Begriff: das Prinzip der doppelten Wirkung. Dies ist jedoch das Gebiet der Bioethik, aber bisher hat noch niemand ein solches System auf ein Auto angewendet, weshalb die Studie bei Experten auf der ganzen Welt besonderes Interesse geweckt hat. Elon Musk, Co-Vorsitzender von OpenAI, ist der Ansicht, dass die Schaffung einer „ethischen“KI eine Frage der Entwicklung klarer Richtlinien oder Richtlinien zur Steuerung der Programmentwicklung ist. Die Politiker hören ihm allmählich zu: So hat Deutschland beispielsweise die weltweit ersten ethischen Grundsätze für autonome Autos geschaffen. Sogar Googles Alphabet AI DeepMind hat jetzt eine Abteilung für Ethik und öffentliche Moral.

Andere Experten, darunter ein Forscherteam der Duke University, glauben, dass der beste Weg, um voranzukommen, darin besteht, einen „allgemeinen Rahmen“zu schaffen, der beschreibt, wie KI in einer bestimmten Situation ethische Entscheidungen treffen wird. Sie glauben, dass die Vereinigung kollektiver moralischer Ansichten wie in derselben Moral Machine die künstliche Intelligenz in Zukunft noch moralischer machen wird als die moderne menschliche Gesellschaft.

Kritik an der "moralischen Maschine"

Wie dem auch sei, derzeit ist das Prinzip der "Mehrheitsmeinung" alles andere als zuverlässig. Beispielsweise kann eine Gruppe von Befragten Vorurteile haben, die nicht allen anderen gemeinsam sind. Das Ergebnis wird sein, dass AIs, denen genau derselbe Datensatz gegeben wurde, aufgrund unterschiedlicher Stichproben dieser Informationen zu unterschiedlichen Schlussfolgerungen kommen können.

Für Professor James Grimmelmann, der sich auf die Dynamik zwischen Software, Reichtum und Macht spezialisiert hat, sieht die Idee der öffentlichen Moral fehlerhaft aus. "Es ist nicht in der Lage, KI-Ethik zu lehren, sondern verleiht ihr nur einen Anschein ethischer Standards, die einem bestimmten Teil der Bevölkerung innewohnen", sagt er. Und Procaccia selbst gibt, wie oben erwähnt, zu, dass ihre Forschung nichts weiter als ein erfolgreicher Proof of Concept ist. Er ist jedoch zuversichtlich, dass ein solcher Ansatz der gesamten Kampagne Erfolg bringen könnte, um in Zukunft eine hochmoralische KI zu schaffen. "Die Demokratie weist zweifellos eine Reihe von Mängeln auf, aber als einheitliches System funktioniert sie - auch wenn einige Menschen immer noch Entscheidungen treffen, mit denen die Mehrheit nicht einverstanden ist."

Wassili Makarow

Empfohlen: