Aufbau Einer Moralischen Maschine: Wer Wird Für Die Ethik Selbstfahrender Autos Verantwortlich Sein? - Alternative Ansicht

Inhaltsverzeichnis:

Aufbau Einer Moralischen Maschine: Wer Wird Für Die Ethik Selbstfahrender Autos Verantwortlich Sein? - Alternative Ansicht
Aufbau Einer Moralischen Maschine: Wer Wird Für Die Ethik Selbstfahrender Autos Verantwortlich Sein? - Alternative Ansicht

Video: Aufbau Einer Moralischen Maschine: Wer Wird Für Die Ethik Selbstfahrender Autos Verantwortlich Sein? - Alternative Ansicht

Video: Aufbau Einer Moralischen Maschine: Wer Wird Für Die Ethik Selbstfahrender Autos Verantwortlich Sein? - Alternative Ansicht
Video: Wie selbstfahrende Autos bei einem Unfall entscheiden | Autonomes Fahren | beta stories | Doku | BR 2024, March
Anonim

Sie fahren eine Autobahn entlang, wenn ein Mann auf eine stark befahrene Straße rennt. Autos bewegen sich um Sie herum, und Sie haben einen Sekundenbruchteil Zeit, um eine Entscheidung zu treffen: Versuchen Sie, einer Person auszuweichen und das Risiko eines Unfalls zu schaffen? Fahren Sie weiter in der Hoffnung, dass er Zeit hat? Bremsen? Wie bewerten Sie die Wahrscheinlichkeit, dass ein Kind auf dem Rücksitz festgeschnallt ist? In vielerlei Hinsicht ist dies ein klassisches „moralisches Dilemma“, ein Trolley-Problem. Sie hat eine Million verschiedene Optionen, mit denen Sie menschliche Vorurteile erkennen können, aber das Wesentliche ist dasselbe.

Sie befinden sich in einer Situation, in der Leben und Tod auf dem Spiel stehen, es gibt keine einfache Wahl, und Ihre Entscheidung wird tatsächlich bestimmen, wer lebt und wer stirbt.

Das Trolley-Dilemma und die künstliche Intelligenz

Das neue Papier des MIT, das letzte Woche in der Zeitschrift Nature veröffentlicht wurde, versucht, eine funktionierende Lösung für das Trolley-Problem zu finden, indem Millionen von Freiwilligen rekrutiert werden. Das Experiment begann 2014 und war ein Erfolg. Es erhielt über 40 Millionen Antworten aus 233 Ländern und war damit eine der größten jemals durchgeführten Moralstudien.

Eine Person kann solche Entscheidungen unbewusst treffen. Es ist schwierig, alle ethischen Systeme und moralischen Voraussetzungen abzuwägen, wenn Ihr Auto die Straße hinunter rast. In unserer Welt werden Entscheidungen jedoch zunehmend von Algorithmen getroffen, und Computer können leicht schneller reagieren als wir.

Hypothetische Situationen mit selbstfahrenden Autos sind nicht die einzigen moralischen Entscheidungen, die Algorithmen treffen müssen. Medizinische Algorithmen entscheiden, wer mit begrenzten Ressourcen behandelt wird. Automatisierte Drohnen entscheiden, wie viel "Kollateralschaden" in einem einzelnen militärischen Einsatz akzeptabel ist.

Werbevideo:

Nicht alle moralischen Prinzipien sind gleich

Die „Lösungen“für das Wagenproblem sind so vielfältig wie die Probleme selbst. Wie werden Maschinen moralische Entscheidungen treffen, wenn die Grundlagen von Moral und Ethik nicht allgemein akzeptiert werden und möglicherweise keine Lösungen haben? Wer kann feststellen, ob ein Algorithmus richtig oder falsch ist?

Der Crowdsourcing-Ansatz der Wissenschaftler von Moral Machine ist ziemlich pragmatisch. Damit die Öffentlichkeit selbstfahrende Autos akzeptieren kann, muss sie letztendlich die moralische Grundlage für ihre Entscheidungen akzeptieren. Es ist nicht gut, wenn Ethiker oder Anwälte eine Lösung finden, die für normale Fahrer entweder inakzeptabel oder inakzeptabel ist.

Die Ergebnisse führen zu der merkwürdigen Schlussfolgerung, dass moralische Prioritäten (und damit die algorithmischen Entscheidungen, die Menschen treffen können) davon abhängen, wo auf der Welt Sie sich befinden.

Zunächst einmal erkennen Wissenschaftler, dass es unmöglich ist, die Häufigkeit oder Natur dieser Situationen im wirklichen Leben zu kennen. Menschen, die sehr oft in einen Unfall verwickelt waren, können nicht sagen, was genau passiert ist, und die Bandbreite möglicher Situationen schließt eine einfache Klassifizierung aus. Damit das Problem nachvollziehbar wird, muss es in vereinfachte Szenarien unterteilt werden, in denen nach universellen moralischen Regeln und Prinzipien gesucht wird.

Wenn Sie an einer Umfrage teilnehmen, werden Ihnen dreizehn Fragen gestellt, für die eine einfache Ja- oder Nein-Auswahl erforderlich ist, um die Antworten auf neun Faktoren einzugrenzen.

Sollte das Auto auf eine andere Fahrspur abbiegen oder in Bewegung bleiben? Sollten Sie junge Menschen retten, nicht alte? Frauen oder Männer? Tiere oder Menschen? Sollten Sie versuchen, so viele Leben wie möglich zu retten, oder ist ein Kind zwei ältere Menschen "wert"? Passagiere in einem Auto retten, keine Fußgänger? Diejenigen, die sich nicht an die Regeln halten, oder diejenigen, die sich nicht an die Regeln halten? Sollten Sie Menschen retten, die körperlich stärker sind? Was ist mit Menschen mit höherem sozialen Status wie Ärzten oder Geschäftsleuten?

In dieser harten hypothetischen Welt muss jemand sterben, und Sie werden jede dieser Fragen beantworten - mit unterschiedlichem Enthusiasmus. Das Treffen dieser Entscheidungen offenbart jedoch auch tief verwurzelte kulturelle Normen und Vorurteile.

Die Verarbeitung des von Wissenschaftlern untersuchten riesigen Datensatzes liefert universelle Regeln sowie merkwürdige Ausnahmen. Die drei wichtigsten Faktoren, gemittelt über die gesamte Bevölkerung, waren, dass jeder es vorzog, mehr Leben als weniger zu retten, Menschen statt Tiere und eher jung als alt.

Regionale Unterschiede

Sie können diesen Punkten zustimmen, aber je tiefer Sie darüber nachdenken, desto beunruhigender werden die moralischen Schlussfolgerungen sein. Mehr Befragte entschieden sich dafür, den Verbrecher vor der Katze zu retten, aber im Allgemeinen zogen sie es vor, den Hund vor dem Verbrecher zu retten. Im Weltdurchschnitt wird das Älterwerden höher bewertet als das Obdachlose, aber Obdachlose wurden weniger gerettet als dicke Menschen.

Und diese Regeln waren nicht universell: Befragte aus Frankreich, dem Vereinigten Königreich und den Vereinigten Staaten bevorzugten die Jungen, während Befragte aus China und Taiwan eher bereit waren, ältere Menschen zu retten. Befragte aus Japan zogen es vor, Fußgänger gegenüber Passagieren zu retten, während sie in China Passagiere Fußgängern vorziehen.

Die Forscher fanden heraus, dass sie die Antworten nach Ländern in drei Kategorien einteilen konnten: „Westen“, hauptsächlich Nordamerika und Europa, wo die Moral weitgehend auf der christlichen Lehre beruht; "Osten" - Japan, Taiwan, Mittlerer Osten, wo Konfuzianismus und Islam vorherrschen; "Südliche" Länder, einschließlich Mittel- und Südamerika, zusammen mit starkem französischen kulturellen Einfluss. Im südlichen Segment gibt es eine stärkere Präferenz für weibliche Opfer als anderswo. Im östlichen Segment besteht eine größere Tendenz, junge Menschen zu retten.

Das Filtern nach verschiedenen Attributen der Befragten bietet endlose interessante Optionen. Es ist unwahrscheinlich, dass „sehr religiöse“Befragte es vorziehen, ein Tier zu retten, aber sowohl religiöse als auch nicht religiöse Befragte äußern ungefähr die gleiche Präferenz für die Rettung von Menschen mit hohem sozialen Status (obwohl dies als Verstoß gegen einige religiöse Lehren angesehen werden kann). Männer und Frauen ziehen es vor, Frauen zu retten, aber Männer neigen weniger dazu.

Unbeantwortete Fragen

Niemand behauptet, dass diese Forschung all diese gewichtigen moralischen Probleme irgendwie "löst". Die Autoren der Studie stellen fest, dass Crowdsourcing-Online-Daten mit Verzerrungen verbunden sind. Aber auch bei einer großen Stichprobe war die Anzahl der Fragen begrenzt. Was ist, wenn sich die Risiken je nach Ihrer Entscheidung ändern? Was ist, wenn der Algorithmus berechnen kann, dass Sie angesichts der Geschwindigkeit, mit der Sie sich bewegten, nur eine 50-prozentige Chance hatten, Fußgänger zu töten?

Edmond Awad, einer der Autoren der Studie, äußerte sich vorsichtig über eine Überinterpretation der Ergebnisse. Die Diskussion sollte seiner Meinung nach in die Risikoanalyse einfließen - wer mehr oder weniger gefährdet ist - anstatt zu entscheiden, wer stirbt und wer nicht.

Das wichtigste Ergebnis der Studie war jedoch die Diskussion, die auf ihrem Boden aufflammte. Da Algorithmen immer wichtigere Entscheidungen treffen, die sich auf das Leben der Menschen auswirken, ist es unerlässlich, dass wir die Ethik der KI kontinuierlich diskutieren. Das Entwerfen eines "künstlichen Gewissens" muss die Meinung aller einschließen. Obwohl die Antworten möglicherweise nicht immer leicht zu finden sind, ist es am besten, einen moralischen Rahmen für Algorithmen zu schaffen, indem Algorithmen die Welt nicht ohne menschliche Kontrolle selbst gestalten können.

Empfohlen: