KI Kann Unser Leben Für Immer Verändern - Aber Wir Befinden Uns Derzeit Auf Einem Dunklen Pfad - Alternative Ansicht

KI Kann Unser Leben Für Immer Verändern - Aber Wir Befinden Uns Derzeit Auf Einem Dunklen Pfad - Alternative Ansicht
KI Kann Unser Leben Für Immer Verändern - Aber Wir Befinden Uns Derzeit Auf Einem Dunklen Pfad - Alternative Ansicht

Video: KI Kann Unser Leben Für Immer Verändern - Aber Wir Befinden Uns Derzeit Auf Einem Dunklen Pfad - Alternative Ansicht

Video: KI Kann Unser Leben Für Immer Verändern - Aber Wir Befinden Uns Derzeit Auf Einem Dunklen Pfad - Alternative Ansicht
Video: Unerklärliche Dinge über den menschlichen Körper, die die Wissenschaft nicht erklären kann! 2024, Kann
Anonim

Künstliche Intelligenz (KI) verändert die Welt bereits auf sichtbare Weise. Daten treiben unser globales digitales Ökosystem an, und KI-Technologien decken Datenmuster auf.

Smartphones, Smart Homes und Smart Cities beeinflussen unser Leben und unsere Interaktion, und Systeme der künstlichen Intelligenz sind zunehmend an Einstellungsentscheidungen, medizinischer Diagnostik und Rechtsprechung beteiligt. Ob dieses Szenario utopisch oder dystopisch ist, liegt bei uns.

Die potenziellen Risiken der KI werden häufig aufgeführt. Killerroboter und massive Arbeitslosigkeit sind häufige Probleme, während manche Menschen sogar das Aussterben befürchten. Optimistischere Prognosen gehen davon aus, dass die KI bis 2030 15 Billionen US-Dollar zur Weltwirtschaft beitragen und uns schließlich zu einer Art sozialem Nirvana führen wird.

Wir müssen sicherlich die Auswirkungen dieser Technologien auf unsere Gesellschaften berücksichtigen. Ein Hauptproblem ist, dass KI-Systeme bestehende soziale Vorurteile verstärken - mit verheerender Wirkung.

Einige berüchtigte Beispiele für dieses Phänomen haben breite Beachtung gefunden: moderne automatisierte maschinelle Übersetzungssysteme und Bilderkennungssysteme.

Diese Probleme treten auf, weil solche Systeme mathematische Modelle (wie neuronale Netze) verwenden, um Muster in großen Trainingsdatensätzen zu definieren. Wenn diese Daten auf verschiedene Weise stark verzerrt sind, werden inhärente Fehler zwangsläufig von geschulten Systemen untersucht und reproduziert.

Voreingenommene autonome Technologien sind problematisch, da sie möglicherweise Gruppen wie Frauen, ethnische Minderheiten oder ältere Menschen isolieren und dadurch bestehende soziale Ungleichgewichte verschärfen können.

Wenn KI-Systeme beispielsweise anhand von Daten zur Festnahme durch die Polizei trainiert werden, werden alle bewussten oder unbewussten Vorurteile, die sich in bestehenden Festnahmesystemen manifestieren, durch das aus diesen Daten geschulte KI-System mit „polizeilicher Vorausschau“dupliziert.

Werbevideo:

In Anerkennung der schwerwiegenden Auswirkungen haben verschiedene seriöse Organisationen kürzlich empfohlen, alle Systeme der künstlichen Intelligenz auf objektive Daten zu schulen. Die von der Europäischen Kommission im Jahr 2019 veröffentlichten ethischen Leitlinien schlugen folgende Empfehlung vor:

Wenn Daten gesammelt werden, können sie sozial konstruierte Fehler und Ungenauigkeiten enthalten. Dies muss behoben werden, bevor die KI an einem Datensatz trainiert wird.

Das klingt alles vernünftig genug. Leider ist es manchmal einfach nicht möglich, die Unparteilichkeit bestimmter Datensätze vor dem Training sicherzustellen. Ein konkretes Beispiel soll dies verdeutlichen.

Alle modernen maschinellen Übersetzungssysteme (wie Google Translate) lernen aus Satzpaaren.

Das anglo-französische System verwendet Daten, die englische Sätze ("sie ist groß") mit äquivalenten französischen Sätzen ("elle est grande") verknüpfen.

In einem bestimmten Trainingsdatensatz könnten 500 Millionen solcher Paare und damit nur eine Milliarde Einzelsätze enthalten sein. Alle geschlechtsspezifischen Verzerrungen müssen aus dieser Art von Datensatz entfernt werden, um zu verhindern, dass im System Ergebnisse wie die folgenden generiert werden:

Die französische Übersetzung wurde am 11. Oktober 2019 mit Google Translate erstellt und ist falsch: "Ils" ist ein männlicher Plural auf Französisch und wird hier angezeigt, obwohl der Kontext eindeutig darauf hinweist, dass auf ihn verwiesen wird auf Frauen.

Dies ist ein klassisches Beispiel für ein automatisiertes System, das aufgrund von Verzerrungen in den Trainingsdaten den Standardstandard für Männer bevorzugt.

Insgesamt sind 70 Prozent der Gattungspronomen in den Übersetzungsdatensätzen männlich und 30 Prozent weiblich. Dies liegt daran, dass sich die für solche Zwecke verwendeten Texte häufiger auf Männer als auf Frauen beziehen.

Um zu vermeiden, dass die vorhandenen Fehler des Übersetzungssystems wiederholt werden, müssten bestimmte Satzpaare aus den Daten ausgeschlossen werden, damit sich das männliche und das weibliche Pronomen sowohl auf englischer als auch auf französischer Seite im Verhältnis 50/50 treffen. Dies verhindert das System, männlichen Pronomen höhere Wahrscheinlichkeiten zuzuweisen.

Und selbst wenn die resultierende Teilmenge der Daten vollständig geschlechtsspezifisch ist, wird sie auf verschiedene Weise (z. B. ethnisch oder altersbedingt) verzerrt. In Wahrheit wäre es schwierig, alle diese Fehler vollständig zu beseitigen.

Wenn eine Person nur fünf Sekunden für das Lesen der einen Milliarde Sätze in KI-Trainingsdaten benötigt, dauert es 159 Jahre, um alle zu testen - und dies setzt die Bereitschaft voraus, Tag und Nacht ohne Mittagspause zu arbeiten.

Alternative?

Daher ist es unrealistisch, zu verlangen, dass alle Trainingsdatensätze unvoreingenommen sind, bevor KI-Systeme erstellt werden. Solche hohen Anforderungen setzen normalerweise voraus, dass „AI“einen homogenen Cluster mathematischer Modelle und algorithmischer Ansätze bezeichnet.

Tatsächlich erfordern unterschiedliche KI-Aufgaben völlig unterschiedliche Systemtypen. Eine vollständige Unterschätzung dieser Vielfalt verschleiert die tatsächlichen Probleme, die beispielsweise mit stark verzerrten Daten verbunden sind. Dies ist bedauerlich, da andere Lösungen für das Datenverzerrungsproblem vernachlässigt werden.

Beispielsweise können Verzerrungen in einem trainierten maschinellen Übersetzungssystem erheblich reduziert werden, wenn das System angepasst wird, nachdem es an einem großen, unvermeidlich voreingenommenen Datensatz trainiert wurde.

Dies kann mit einem viel kleineren, weniger verstümmelten Datensatz erfolgen. Daher können die meisten Daten stark verzerrt sein, ein geschultes System ist jedoch nicht erforderlich. Leider werden diese Methoden nur selten von jenen diskutiert, die Richtlinien und rechtliche Rahmenbedingungen für die KI-Forschung entwickeln.

Wenn KI-Systeme bestehende soziale Ungleichgewichte einfach verschärfen, entmutigen sie eher als fördern positive soziale Veränderungen. Wenn die KI-Technologien, die wir täglich häufiger einsetzen, weit weniger voreingenommen wären als wir, könnten sie uns helfen, unsere eigenen lauernden Vorurteile zu erkennen und ihnen entgegenzutreten.

Das sollten wir natürlich anstreben. Daher müssen KI-Designer viel genauer über die sozialen Auswirkungen der von ihnen erstellten Systeme nachdenken, während diejenigen, die über KI schreiben, besser verstehen müssen, wie KI-Systeme tatsächlich entworfen und gebaut werden.

Denn wenn wir uns wirklich entweder einer technologischen Idylle oder einer Apokalypse nähern, wäre die erstere vorzuziehen.

Victoria Vetrova

Empfohlen: