Künstliche Intelligenz Amazon Wurde Geschlossen, Als Festgestellt Wurde, Dass Frauen Schlechter Sind Als Männer - - Alternative Ansicht

Inhaltsverzeichnis:

Künstliche Intelligenz Amazon Wurde Geschlossen, Als Festgestellt Wurde, Dass Frauen Schlechter Sind Als Männer - - Alternative Ansicht
Künstliche Intelligenz Amazon Wurde Geschlossen, Als Festgestellt Wurde, Dass Frauen Schlechter Sind Als Männer - - Alternative Ansicht

Video: Künstliche Intelligenz Amazon Wurde Geschlossen, Als Festgestellt Wurde, Dass Frauen Schlechter Sind Als Männer - - Alternative Ansicht

Video: Künstliche Intelligenz Amazon Wurde Geschlossen, Als Festgestellt Wurde, Dass Frauen Schlechter Sind Als Männer - - Alternative Ansicht
Video: Das ABSURDE Anspruchsdenken von Frauen 2024, April
Anonim

Die künstliche Intelligenz von Amazon, mit der die Lebensläufe von Arbeitssuchenden sortiert werden sollen, hat Männer höher eingestuft als Frauen. Insbesondere lehnte er Lebensläufe mit dem Wort „weiblich“ab und bot an, Kandidaten einzustellen, die in ihrer Rede typische männliche Verben verwendeten, auch wenn diese Personen nicht über die erforderlichen Fähigkeiten verfügten. Infolgedessen musste das Unternehmen das Projekt schließen.

Künstliche HR-Intelligenz

Laut Reuters haben die Experten für maschinelles Lernen von Amazon festgestellt, dass die künstliche Intelligenz, die den Lebenslauf von Kandidaten für Positionen im Unternehmen verarbeitet, weibliche Arbeitssuchende diskriminiert. Diese Funktion wurde nicht absichtlich in das System integriert - sie war das Ergebnis maschinellen Lernens.

Eine auf künstlicher Intelligenz basierende Suchmaschine für Lebensläufe wird seit 2014 von einem 12-köpfigen Team in Edinburgh bei Amazon entwickelt. Bereits im Jahr 2015 stellte das Unternehmen fest, dass das neue System bei der Bewertung von Kandidaten für Softwareentwicklungspositionen und andere technische Stellen nicht dem Prinzip der Geschlechtsneutralität entsprach.

Bald erkannten sie den Grund: Tatsache ist, dass das System in den Lebensläufen geschult wurde, die das Unternehmen in den letzten 10 Jahren eingegeben hat. Die meisten dieser Lebensläufe wurden von Männern gehalten, was weitgehend den Stand der Dinge in der IT-Branche widerspiegelt. Infolgedessen erfuhr die künstliche Intelligenz von Amazon, dass männliche Arbeitssuchende Frauen vorgezogen werden.

Sprachliche Ablehnung

Werbevideo:

Infolgedessen begann künstliche Intelligenz, Lebensläufe zu verwerfen, die das Wort "weiblich" in Ausdrücken wie "Kapitän des Frauenschachclubs" enthielten. Der Mechanismus stufte auch die Noten von Absolventen zweier Frauenhochschulen herab, aber Reuters-Quellen gaben ihre Namen nicht an. Bei der Bewertung von Lebensläufen wurden sie durch künstliche Intelligenz mit einem bis fünf Sternen bewertet - ähnlich wie Käufer Produkte bei Amazon bewerten.

Das System achtete auch auf andere Wörter. Die Entwickler haben 500 Computermodelle für unterschiedliche Aufgaben und geografische Standorte erstellt. Jedes Modell wurde darauf trainiert, etwa 50.000 Signalwörter zu erkennen, die im Lebenslauf des Antragstellers enthalten waren.

Image
Image

Es ist bemerkenswert, dass der Mechanismus Wörter ignorierte, die Fähigkeiten bezeichnen, die häufig im Lebenslauf von IT-Spezialisten beschrieben werden, wie z. B. die Fähigkeit, verschiedene Codes zu schreiben usw. Stattdessen verfolgte das System beispielsweise typische Verben für männliche Sprache in der Selbstbeschreibung von Kandidaten, wie z. B. "erfüllt". (ausgeführt) oder "gefangen", wie sie regelmäßig in alten Lebensläufen gesehen wurden, aus denen die Maschine gelernt hat. Bei diesem Ansatz war die Diskriminierung aufgrund des Geschlechts nicht das einzige Problem - der Mechanismus empfahl häufig Personen, die nicht über die für die Position erforderlichen Fähigkeiten verfügten.

Das weitere Schicksal des Projekts

Amazon hat das System so angepasst, dass es nicht mehr auf Signalwörter reagiert. Dies war jedoch keine Garantie dafür, dass der Mechanismus keinen anderen Weg finden würde, um Lebensläufe von Frauen zu identifizieren. Anfang 2017 war das Unternehmen vom Projekt desillusioniert und löste das Team auf. Laut Reuters-Quellen haben die HR-Spezialisten die Empfehlungen des Systems berücksichtigt, sich jedoch nie ausschließlich auf sie verlassen.

Einer der Quellen zufolge ist das Projekt abgeschlossen. Ein anderer argumentiert, dass in Edinburgh ein neues Team gebildet wurde, um den Mechanismus weiterzuentwickeln, diesmal jedoch mit Schwerpunkt auf Gerechtigkeit und Inklusion. Eine andere Quelle berichtet, dass jetzt eine stark modifizierte Version der Engine verwendet wird, um Routinearbeiten auszuführen, z. B. das Entfernen doppelter Lebensläufe aus der Datenbank.