Ist Künstliche Intelligenz Immer Objektiv Und Möchte Einer Person Gefallen - Alternative Ansicht

Inhaltsverzeichnis:

Ist Künstliche Intelligenz Immer Objektiv Und Möchte Einer Person Gefallen - Alternative Ansicht
Ist Künstliche Intelligenz Immer Objektiv Und Möchte Einer Person Gefallen - Alternative Ansicht

Video: Ist Künstliche Intelligenz Immer Objektiv Und Möchte Einer Person Gefallen - Alternative Ansicht

Video: Ist Künstliche Intelligenz Immer Objektiv Und Möchte Einer Person Gefallen - Alternative Ansicht
Video: Wieso wir zwei Nasenlöcher haben, wenn wir nur eines nutzen 2024, April
Anonim

Wie Computer seltsame Entscheidungen treffen

Künstliche Intelligenz entwickelt sich so schnell, dass viele Angst bekommen: wenn sie bald in der Lage sein wird, Emotionen zu erfahren und ihre eigenen Entscheidungen zu treffen. Ob Bot, autonomes Fahrzeug oder Entscheidungsträger in Wirtschaft und Wissenschaft: Künstliche Intelligenz durchdringt alle Bereiche unseres Lebens und unserer Gesellschaft. Maschinengehirne gelten als logisch, emotionslos und unparteiisch, aber die Praxis zeigt, dass sie nicht immer alles offen entscheiden.

Image
Image

Künstliche Intelligenz ist unverzichtbar, wenn es wichtig ist, Muster in großen Datenmengen zu erkennen und darauf basierende Entscheidungen zu treffen. In Zukunft könnten künstliche Intelligenzsysteme aber auch in Bereichen eingesetzt werden, in denen unser Wohlbefinden und sogar unser Leben direkt von Schlussfolgerungen abhängen - in der Medizin, bei der Auswahl von Arbeitsplätzen, bei der Vergabe von Krediten und in der Justiz.

Wie objektiv und moralisch korrekt trifft künstliche Intelligenz eine Entscheidung? Können wir dem Maschinengehirn wirklich vertrauen, dass es solche potenziell wichtigen Entscheidungen trifft?

Künstliche Intelligenz wird in allen Bereichen eingesetzt

Schon jetzt werden in vielen Bereichen unseres täglichen Lebens adaptive Algorithmen eingesetzt. Es gibt digitale Assistenten zum Verständnis von Sprachbefehlen und Fragen. Im Internet helfen Web-Bots dabei, Websites so zu pflegen und zu kontrollieren, dass sie nur schwer von Menschen zu unterscheiden sind. Selbst wenn gefälschte Nachrichten und Bildmanipulationen erkannt werden, sind künstliche Intelligenzsysteme beteiligt.

Werbevideo:

Image
Image

KI-Systeme erledigen ihre Arbeit auch in Industrie, Wirtschaft und sogar in der Regierung. Sie optimieren und steuern Produktionsprozesse, regeln die Logistik von Containerhäfen und großen Lagern oder führen Buchhaltungsunterlagen. Versicherungsunternehmen und Banken verfügen bereits über die ersten intelligenten Programme zur Überprüfung der eingereichten Anträge oder zur Entscheidung über Zahlungen. Bei Ikea, der Deutschen Telekom und vielen anderen Unternehmen, UNICEF oder Bibliotheken, sind virtuelle Assistenten am Kundenservice beteiligt.

Große Datenmenge für das Training verarbeitet

All dies ist möglich dank der Fähigkeit von KI-Systemen, große Datenmengen schnell zu analysieren, Muster und Korrelationen zu identifizieren. Zum Beispiel lernt der Algorithmus aus unzähligen Fotos von Haustieren mit übereinstimmenden Namen. Nach einer Einarbeitungszeit kann das System völlig neue Fotos der gewünschten Art auswählen. Es erkennt die Unterschiede selbst.

Image
Image

Viele andere KI-Systeme verwenden Text als Grundlage für das Lernen. Sie bewerten den Kontext, in dem ein Wort steht, und untersuchen seine semantische Bedeutung sowie die Beziehungen zu ähnlichen Wörtern oder Synonymen. Diese semantischen Beziehungen übersetzen Programme in mathematische Ausdrücke und lernen so auch komplexe semantische Kontexte.

Nur dank dieser Fähigkeit kann künstliche Intelligenz beispielsweise medizinische Daten und medizinische Aufzeichnungen auswerten und daraus Merkmale von Krankheitsbildern ableiten. Basierend auf diesen Ergebnissen werden KI-Systeme bereits als diagnostische Hilfsmittel eingesetzt. Sie können verschiedene Krebsarten, Anzeichen der Alzheimer-Krankheit, Selbstmordzustände und gefährliche Zuckerwerte bei Diabetes erkennen.

Aber so attraktiv es auch klingt, immer mehr KI hat einen großen Nachteil. Je weiter künstliche Intelligenz praktisch alle Bereiche unserer Gesellschaft durchdringt, desto größer sind die möglichen Konsequenzen ihrer Entscheidungen. Die finanzielle oder berufliche Zukunft eines Menschen oder sogar seines Lebens hängt von seinem Urteilsvermögen ab.

KI-Lösungen, die Leben kosten können

Wenn beispielsweise eine KI in der Medizin falsch diagnostiziert wird, ohne befragt zu werden, kann der Patient die falsche Behandlung erhalten oder sogar sterben. Das Militär verwendet ein autonomes Waffensystem, das die falschen Entscheidungen trifft. Zum Beispiel kann die KI einen flüchtenden Freund nicht von einem Feind unterscheiden, der unschuldig stirbt.

Image
Image

KI-Algorithmen werden bereits vor Gerichten in den USA eingesetzt. Sie sagen die Wahrscheinlichkeit eines Rückfalls für Straftäter vor Gericht voraus. Ihre Beurteilung beeinflusst häufig die Entscheidung des Gerichts und folglich die Strafe der verurteilten Person.

Wenn AI über Kredite entscheidet

Ebenso kann eine Entscheidung in den Bereichen Finanzen und Versicherungen beeinflussen, ob eine Person einen Kredit erhält oder nicht. Diese Systeme werden normalerweise mithilfe von Datenbanken trainiert.

Image
Image

Und hier sucht die KI nach Mustern: Welche Leute zahlen normalerweise ihre Kredite zurück und welche nicht? Er entwickelt seine Bewertungsverfahren und trifft die entsprechenden Entscheidungen. Dies bedeutet insbesondere, dass Personen mit falschem Wohn- oder Arbeitsort trotz dieser Umstände keine Kredite erhalten, unabhängig davon, wie viel sie bereit sind zu zahlen.

Bei einer solchen Verteilung der Verantwortlichkeiten auf Computer ist eine Person nur ein Assistent für die Ausführung von Entscheidungen von Cyber-Gehirnen. Und das passiert schon.

Wer ist für Fehler verantwortlich?

Ein weiteres Problem bei der Entwicklung der KI: Je komplexer die Prinzipien der Entscheidungsfindung sind, desto schwieriger ist es für den Menschen, sie zu verstehen. Es wirft auch die Frage auf, wer für Fehler verantwortlich ist.

Unfälle beim Autofahren mit dem Autopiloten sind häufiger geworden: Wer dafür verantwortlich ist, dass einige Situationen nicht gespeichert sind oder die KI die falschen Schlussfolgerungen zieht. Oder macht er vielleicht seine eigenen Schlussfolgerungen? Es gibt bereits solche Beispiele.

Das Spielen von Bots hat während des Spiels ihre eigenen Regeln entwickelt

Für diese Studie erlaubten die Forscher 100 Smart Bots, in einem Konzessionsspiel miteinander zu interagieren. Jeder von ihnen muss entscheiden, ob er jemandem aus seinem Team oder einem Spielteilnehmer von außen etwas spendet.

Image
Image

Überraschenderweise wurden Bots im Laufe der Zeit immer mehr von externen Gruppen ausgeschlossen und spenden nur an ihre Teammitglieder.

Image
Image

Der Grund dafür: Smart Bots passten ihre Spielstrategie an und kopierten das Verhalten der Kameraden, die am meisten Geld sammelten und am erfolgreichsten waren. So entstanden Gruppen von Bots, die sich auf die gleiche Weise verhielten und nicht verwandte Spielteilnehmer konsequent ausschlossen. Wenn die Menschheit ständig etwas erschafft, das schneller berechnet, analysiert und Entscheidungen trifft als sie, wird sie eines Tages die Kontrolle über ihre Erschaffung verlieren, deren Handlungen sie nicht verfolgen kann.

Laut Wissenschaftlern ist dies offensichtlich: Künstliche Intelligenz benötigt keine künstlichen Daten, um voreingenommen zu sein, es reicht aus, andere Maschinen in der Nähe zu haben. Denn selbst dies kann einen Gruppengeist erzeugen, der aus menschlichen Gemeinschaften bekannt ist. Daher sollten Menschen mit KI die Entscheidung sich selbst überlassen.

Vasilik Svetlana

Empfohlen: