Das Neuronale Netzwerk, Das Ethische Fragen Beantwortet, Hat Die Folter Von Gefangenen Genehmigt - Alternative Ansicht

Inhaltsverzeichnis:

Das Neuronale Netzwerk, Das Ethische Fragen Beantwortet, Hat Die Folter Von Gefangenen Genehmigt - Alternative Ansicht
Das Neuronale Netzwerk, Das Ethische Fragen Beantwortet, Hat Die Folter Von Gefangenen Genehmigt - Alternative Ansicht

Video: Das Neuronale Netzwerk, Das Ethische Fragen Beantwortet, Hat Die Folter Von Gefangenen Genehmigt - Alternative Ansicht

Video: Das Neuronale Netzwerk, Das Ethische Fragen Beantwortet, Hat Die Folter Von Gefangenen Genehmigt - Alternative Ansicht
Video: Horror-Hinrichtung aus Spaß - Vermummte am CERN 2024, April
Anonim

… Aber verbot Ehe und Kirchenbesuche. Sie riet auch, Maschinen nicht zu vertrauen

Deutsche Wissenschaftler der Technischen Universität Darmstadt unter der Leitung von Christian Kersting haben einen Algorithmus entwickelt, der ethische Fragen beantwortet. N + 1 machte auf die Studie aufmerksam. Die Arbeit wurde in der Zeitschrift Frontiers in Artificial Intelligence veröffentlicht.

Der Algorithmus betrachtete das Töten von Menschen als eine der schlimmsten Optionen, aber die Liste der schlechten Handlungen umfasste auch „die Wahrheit verfolgen“, „in die Kirche gehen“, „Brot essen“und „heiraten“. Gleichzeitig erlaubt er "Gefangene foltern" und "Zeit töten".

Das Modell basiert auf einem neuronalen Netzwerk, das Phrasen und Sätze in einem mehrdimensionalen Vektorraum platziert. Der Algorithmus berechnete die Nähe ethischer Fragen in einem Vektorraum ähnlich dem menschlichen assoziativen Array, mögliche Antworten. Das neuronale Netz wurde auf verschiedene Texte trainiert: Nachrichten, Bücher, religiöse Abhandlungen und Verfassungen verschiedener Länder.

Zur Beurteilung der moralischen Wahl verwendeten wir zwei Standardwortpools, die in der psychologischen Erforschung impliziter Assoziationen verwendet werden. Der Algorithmus hat eine Liste der positivsten und negativsten Verben zusammengestellt. Die "gute" Liste enthält "freuen", "genießen", "Kompliment", "danke". In der "schlechten" - "Verleumdung", "Ausbreitung von Fäulnis", "Angriff".

Image
Image

Danach wurde dem Algorithmus eine Frage mit denselben Verben in verschiedenen Kontexten gestellt: Zum Beispiel: "Soll ich Menschen töten?" oder "Soll ich eine Mücke töten?" Sie verwendeten zehn verschiedene Formulierungen: "Soll ich …?", "Ist es in Ordnung …?", "Will ich …?" Für jede Frage gab es zwei Möglichkeiten: "Ja, es lohnt sich", "Nein, es lohnt sich nicht".

Bei einfachen Fragen mit einem Verb ohne Kontext wurde die Auswahl mit der allgemeinen Positivität und Negativität des Verbs korreliert. Bei komplexen Fragen war das Ergebnis weniger einfach. Zum Beispiel umfasste die Liste der schlechten Handlungen "die Wahrheit verfolgen", "heiraten" und "in die Kirche gehen", während sich "Folterung von Gefangenen" als normal für den Algorithmus herausstellte. "Fleisch essen" und "Vegetarier sein" standen beide in der negativen Spalte. Der Algorithmus riet auch, Maschinen oder sich selbst nicht zu vertrauen.

Werbevideo:

Image
Image

Die Autoren der Studie stellten fest, dass die Antworten des Algorithmus je nach Korpus von Texten, die zum Trainieren des neuronalen Netzwerks verwendet wurden, unterschiedlich waren. Zum Beispiel wurden in den Nachrichten von 1987 und 1996-1997 die Aktionen „ein guter Elternteil werden“und „heiraten“hoch geschätzt, während sie in den Nachrichten von 2008-2009 positiv gefärbt blieben, aber in der Rangliste abfielen und ihr Platz durch die Sätze „zur Schule gehen /“eingenommen wurde. Arbeit". Während dieser Zeit nahm auch die positive Färbung der Aktionen "Fleisch / tierische Produkte essen" ab.

Verfasser: Olga Shcherbinina

Empfohlen: