Künstliche Intelligenz Erwies Sich Als Rassistisch - Alternative Ansicht

Künstliche Intelligenz Erwies Sich Als Rassistisch - Alternative Ansicht
Künstliche Intelligenz Erwies Sich Als Rassistisch - Alternative Ansicht

Video: Künstliche Intelligenz Erwies Sich Als Rassistisch - Alternative Ansicht

Video: Künstliche Intelligenz Erwies Sich Als Rassistisch - Alternative Ansicht
Video: Künstliche Intelligenz: Algorithmus hat Vorurteile gegenüber Schwarzen! 2024, Kann
Anonim

Eine Studie von Wissenschaftlern des Massachusetts Institute of Technology enthüllte die Details des Prozesses der Datenanalyse durch künstliche Intelligenz, der häufig von sexistischen und rassistischen Stereotypen bei der Entscheidungsfindung geleitet wird. Mehrere Systeme, die an dem Experiment teilnahmen, zeigten Anfälligkeit für menschliche Vorurteile.

Die britische Zeitung "The Daily Mail" schreibt, dass sich das Wissenschaftlerteam nach Erhalt der Ergebnisse der Studie verpflichtet habe, die künstliche Intelligenz neu zu programmieren, um frühere Probleme zu beseitigen. Laut Irene Chen, die am Massachusetts Institute of Technology arbeitet, neigen Informatiker zu dem Schluss, dass die einzige Möglichkeit, Elemente von Rassismus und Sexismus in Algorithmen für künstliche Intelligenz zu beseitigen, darin besteht, den Softwarecode zu verbessern. Die Qualität der Algorithmen ist direkt proportional zu den Daten, mit denen sie arbeiten. Untersuchungen von Chen mit David Sontag und Fredrik D. Johannson zeigen, dass mehr verfügbare Daten die Dinge radikal zum Besseren verändern können.

In einem Experiment untersuchte das Team ein System, das das Einkommen einer Person anhand der verfügbaren Informationen vorhersagte. Die Analyse hat gezeigt, dass der Algorithmus in 50% der Fälle dazu neigt, vorherzusagen, dass das Einkommen einer Frau im Durchschnitt geringer sein wird als das eines Mannes. Durch zehnfache Erhöhung der Menge verfügbarer Daten stellten die Wissenschaftler fest, dass der Faktor eines solchen Fehlers um 40% abnahm.

Darüber hinaus war bei der Untersuchung des Systems, das in Krankenhäusern verwendet wird und das Überleben von Patienten vorhersagt, die sich einer schweren Operation unterziehen, die Genauigkeit der Vorhersagen für die mongolische Rasse viel geringer als für die Kaukasier und Neger. Wissenschaftler argumentieren jedoch, dass die Verwendung der fortschrittlichen Analysetechnik die Vorhersagegenauigkeit für Patienten, die nicht zur mongolischen Rasse gehören, erheblich verringern kann. Dies zeigt, dass mehr verfügbare Daten möglicherweise nicht immer Algorithmusfehler korrigieren. Stattdessen sollten Wissenschaftler mehr Informationen über diskriminierte Gruppen erhalten.

Die neue Methode wirft für Forscher des maschinellen Lernens eine weitere Frage auf, wie eine effiziente Datenanalyse ohne bestehende Diskriminierung durchgeführt werden kann.

Wie funktioniert maschinelles Lernen in KI-basierten Systemen?

Künstliche Intelligenzsysteme basieren auf künstlichen neuronalen Netzen (ANNs), die die vom menschlichen Gehirn verwendeten Informationsspeicher- und Lerntechniken auf mechanische Systeme übertragen. ANNs trainieren, um Muster in verfügbaren Informationsquellen zu finden, einschließlich Sprache, Text und Bildern. Die Verbesserung der Genauigkeit der Datenanalyse ist eine der Grundvoraussetzungen vor den neuesten Entwicklungen in der künstlichen Intelligenz.

"Normale" künstliche Intelligenz verwendet die Eingabedaten, um den Algorithmus über das zu analysierende Thema zu informieren, während mit einer großen Menge an Informationen gearbeitet wird.

Werbevideo:

Zu den praktischen Anwendungen des maschinellen Lernens gehören Google-Übersetzungsdienste, Gesichtserkennung von Facebook-Fotos und Filter auf Snapchat, die Gesichter scannen, bevor visuelle Effekte online angewendet werden.

Der Dateneingabeprozess ist oft zeitaufwändig und wird normalerweise durch den Informationsfluss über einen Aspekt des untersuchten Objekts begrenzt. Ein neuer ANN-Typ - ein generativ-kontroverses neuronales Netzwerk - widersetzt sich den Fähigkeiten zweier verschiedener Roboter mit künstlicher Intelligenz gleichzeitig und provoziert ein weniger intelligentes System, um auf Kosten des zweiten ohne menschliche Beteiligung zu lernen. Diese Methode verbessert die Effizienz und Geschwindigkeit des maschinellen Lernens erheblich und erhöht gleichzeitig die Qualität der Datenanalyse.

Oliy Kurilov