Die Menschen Vertrauen Keiner Künstlichen Intelligenz. Wie Man Es Repariert? - Alternative Ansicht

Inhaltsverzeichnis:

Die Menschen Vertrauen Keiner Künstlichen Intelligenz. Wie Man Es Repariert? - Alternative Ansicht
Die Menschen Vertrauen Keiner Künstlichen Intelligenz. Wie Man Es Repariert? - Alternative Ansicht

Video: Die Menschen Vertrauen Keiner Künstlichen Intelligenz. Wie Man Es Repariert? - Alternative Ansicht

Video: Die Menschen Vertrauen Keiner Künstlichen Intelligenz. Wie Man Es Repariert? - Alternative Ansicht
Video: Böse Menschen: 10 Anzeichen, dass jemand dir bewusst schaden will YT 2024, Kann
Anonim

Künstliche Intelligenz kann bereits die Zukunft vorhersagen. Die Polizei erstellt damit eine Karte, auf der angegeben ist, wann und wo Straftaten auftreten können. Ärzte verwenden es, um vorherzusagen, wann ein Patient einen Schlaganfall oder Herzinfarkt haben könnte. Wissenschaftler versuchen sogar, der KI die Vorstellungskraft zu geben, damit sie unerwartete Ereignisse antizipieren kann.

Viele Entscheidungen in unserem Leben erfordern gute Vorhersagen, und KI-Agenten sind fast immer besser darin als Menschen. Trotz all dieser technologischen Fortschritte fehlt uns immer noch das Vertrauen in die Vorhersagen, die künstliche Intelligenz liefert. Menschen sind es nicht gewohnt, sich auf KI zu verlassen, und vertrauen lieber menschlichen Experten, auch wenn diese Experten falsch liegen.

Image
Image

Wenn wir wollen, dass künstliche Intelligenz dem Menschen zugute kommt, müssen wir lernen, ihr zu vertrauen. Um dies zu tun, müssen wir verstehen, warum Menschen sich so hartnäckig weigern, der KI zu vertrauen.

Vertrauen Sie Dr. Robot

Der Versuch von IBM, Onkologen (Watson for Oncology) ein Supercomputerprogramm vorzustellen, schlug fehl. AI hat sich verpflichtet, qualitativ hochwertige Behandlungsempfehlungen für 12 Krebsarten zu geben, die 80% der weltweiten Fälle ausmachen. Bisher haben mehr als 14.000 Patienten aufgrund seiner Berechnungen Empfehlungen erhalten.

Als die Ärzte Watson zum ersten Mal begegneten, befanden sie sich in einer ziemlich schwierigen Situation. Einerseits sah die Ärzteschaft in den AI-Empfehlungen nicht viel Wert, wenn Watson Behandlungsrichtlinien vorlegte, die ihren eigenen Meinungen entsprachen. Der Supercomputer erzählte ihnen einfach, was sie bereits wussten, und diese Empfehlungen änderten nichts an der tatsächlichen Behandlung. Dies hat den Ärzten möglicherweise Sicherheit und Vertrauen in ihre eigenen Entscheidungen gegeben. IBM muss jedoch noch beweisen, dass Watson die Krebsüberlebensrate tatsächlich erhöht.

Werbevideo:

Image
Image

Wenn Watson hingegen Empfehlungen aussprach, die im Widerspruch zur Expertenmeinung standen, kamen die Ärzte zu dem Schluss, dass Watson inkompetent war. Und die Maschine konnte nicht erklären, warum ihre Behandlung funktionieren würde, weil ihre Algorithmen für maschinelles Lernen zu komplex waren, als dass Menschen sie verstehen könnten. Dementsprechend führte dies zu noch mehr Misstrauen, und viele Ärzte ignorierten die KI-Empfehlungen einfach und stützten sich auf ihre eigenen Erfahrungen.

Infolgedessen gab der Chief Medical Partner von IBM Watson, MD Anderson Cancer Center, kürzlich bekannt, dass das Programm abgesagt wird. Das dänische Krankenhaus sagte auch, es würde das Programm abbrechen, nachdem es feststellte, dass Onkologen zwei von drei Gelegenheiten nicht mit Watson übereinstimmten.

Das Problem mit der Watson-Onkologie war, dass die Ärzte ihm einfach nicht vertrauten. Das Vertrauen der Menschen hängt oft von unserem Verständnis des Denkens anderer Menschen und unserer eigenen Erfahrung ab, was das Vertrauen in ihre Meinung stärkt. Dies schafft ein psychologisches Sicherheitsgefühl. KI hingegen ist relativ neu und für den Menschen unverständlich. Es trifft Entscheidungen auf der Grundlage eines ausgeklügelten Analysesystems, um potenzielle versteckte Muster und schwache Signale zu identifizieren, die sich aus großen Datenmengen ergeben.

Selbst wenn es technisch erklärt werden kann, ist der KI-Entscheidungsprozess normalerweise zu komplex, als dass die meisten Menschen ihn verstehen könnten. Die Interaktion mit etwas, das wir nicht verstehen, kann Angst verursachen und ein Gefühl des Kontrollverlusts hervorrufen. Viele Leute verstehen einfach nicht, wie und mit was KI funktioniert, weil es irgendwo hinter dem Bildschirm im Hintergrund passiert.

Aus dem gleichen Grund sind sie sich der Fälle, in denen KI falsch ist, genauer bewusst: Stellen Sie sich den Google-Algorithmus vor, mit dem farbige Menschen als Gorillas klassifiziert werden. der Microsoft-Chatbot, der in weniger als einem Tag zum Nazi wurde; Tesla-Fahrzeug im Autopilot-Modus mit tödlichem Unfall. Diese unglücklichen Beispiele haben unverhältnismäßige Aufmerksamkeit in den Medien erhalten und unterstreichen die Agenda, auf die wir uns nicht verlassen können. Maschinelles Lernen ist nicht 100% zuverlässig, auch weil Menschen es entwerfen.

Eine Spaltung in der Gesellschaft?

Die Gefühle, die künstliche Intelligenz hervorruft, gehen tief in die Natur des Menschen ein. Wissenschaftler haben kürzlich ein Experiment durchgeführt, in dem sie Menschen befragten, die Filme über künstliche Intelligenz (Fantasie) zum Thema Automatisierung im Alltag gesehen haben. Es stellte sich heraus, dass unabhängig davon, ob die KI positiv oder negativ dargestellt wurde, das bloße Anschauen einer filmischen Darstellung unserer technologischen Zukunft die Einstellungen der Teilnehmer polarisiert. Optimisten werden noch optimistischer und Skeptiker schließen noch mehr.

Dies deutet darauf hin, dass Menschen aufgrund ihrer eigenen Argumentation, einer tiefsitzenden Tendenz zur Bestätigungsverzerrung, zur KI voreingenommen sind: der Tendenz, Informationen so zu suchen oder zu interpretieren, dass bereits bestehende Konzepte bestätigt werden. Da KI zunehmend in den Medien erwähnt wird, kann dies zu tiefen Spaltungen in der Gesellschaft führen, eine Kluft zwischen denen, die KI verwenden, und denen, die sie ablehnen. Eine dominante Gruppe von Menschen kann einen großen Vorteil oder ein Handicap bekommen.

Drei Wege aus der KI-Vertrauenskrise

Glücklicherweise haben wir einige Gedanken darüber, wie wir mit dem Vertrauen in die KI umgehen sollen. Die Erfahrung mit KI allein kann die Einstellung der Menschen zu dieser Technologie dramatisch verbessern. Es gibt auch Hinweise darauf, dass Sie ihnen umso mehr vertrauen, je häufiger Sie bestimmte Technologien (z. B. das Internet) verwenden.

Eine andere Lösung könnte darin bestehen, die Black Box der Algorithmen für maschinelles Lernen zu öffnen und sie transparenter arbeiten zu lassen. Unternehmen wie Google, Airbnb und Twitter veröffentlichen bereits Transparenzberichte zu Anfragen und Offenlegungen der Regierung. Diese Art der Übung in KI-Systemen wird den Menschen helfen, das notwendige Verständnis dafür zu erlangen, wie Algorithmen Entscheidungen treffen.

Untersuchungen zeigen, dass die Einbeziehung von Menschen in KI-Entscheidungen auch das Vertrauen stärkt und es der KI ermöglicht, aus menschlichen Erfahrungen zu lernen. Die Studie ergab, dass Personen, denen die Möglichkeit gegeben wurde, den Algorithmus geringfügig zu modifizieren, mit den Ergebnissen seiner Arbeit zufriedener waren, was höchstwahrscheinlich auf ein Gefühl der Überlegenheit und die Fähigkeit zurückzuführen war, zukünftige Ergebnisse zu beeinflussen.

Wir müssen das komplizierte Innenleben von KI-Systemen nicht verstehen, aber wenn wir den Menschen auch nur ein wenig Information und Kontrolle darüber geben, wie diese Systeme implementiert werden, werden sie mehr Selbstvertrauen und den Wunsch haben, KI in ihrem täglichen Leben zu akzeptieren.

Ilya Khel

Empfohlen: