Gefährliche Menschheit: Warum Brauchen Wir Intelligente Künstliche Intelligenz? - Alternative Ansicht

Inhaltsverzeichnis:

Gefährliche Menschheit: Warum Brauchen Wir Intelligente Künstliche Intelligenz? - Alternative Ansicht
Gefährliche Menschheit: Warum Brauchen Wir Intelligente Künstliche Intelligenz? - Alternative Ansicht

Video: Gefährliche Menschheit: Warum Brauchen Wir Intelligente Künstliche Intelligenz? - Alternative Ansicht

Video: Gefährliche Menschheit: Warum Brauchen Wir Intelligente Künstliche Intelligenz? - Alternative Ansicht
Video: #kurzerklärt: Wie gefährlich ist künstliche Intelligenz? 2024, Kann
Anonim

Als Norbert Wiener, der Vater der Kybernetik, 1950 sein Buch The Human Uses of Human Beings schrieb, waren Vakuumröhren noch die wichtigsten elektronischen Bausteine, und tatsächlich arbeiteten nur wenige Computer. Er stellte sich jedoch die Zukunft, die wir jetzt sehen, mit beispielloser Präzision vor und verwechselte nur kleine Details.

Vor jedem anderen Philosophen der künstlichen Intelligenz erkannte er, dass KI nicht nur Menschen in vielen Arten von intellektuellen Aktivitäten imitieren und ersetzen würde, sondern auch Menschen in diesem Prozess verändern würde. "Wir sind nur Strudel in einem Fluss mit immer fließendem Wasser", schrieb er. "Wir sind nicht etwas, das nur lebt, wir sind Modelle, die sich selbst verewigen."

Wenn sich zum Beispiel viele verlockende Gelegenheiten ergeben, sind wir bereit, die geringen Kosten für die Führung eines Unternehmens zu bezahlen und zu akzeptieren, um Zugang zu neuen Möglichkeiten zu erhalten. Und sehr bald werden wir abhängig von neuen Werkzeugen, wir verlieren die Fähigkeit, ohne sie zu existieren. Optionen werden erforderlich.

Dies ist eine sehr alte Geschichte der Evolution, und viele der Kapitel daraus sind uns bekannt. Die meisten Säugetiere können ihr eigenes Vitamin C synthetisieren, aber fruchtfressende Primaten haben diese eingebaute Fähigkeit verloren. Die sich wiederholenden Muster, die wir Menschen nennen, beruhen heute auf Kleidung, verarbeiteten Lebensmitteln, Vitaminen, Spritzen, Kreditkarten, Smartphones und dem Internet. Und morgen, wenn nicht heute, von künstlicher Intelligenz.

Wiener sah mehrere Probleme mit diesem Zustand voraus, die Alan Turing und andere frühe KI-Optimisten weitgehend übersehen hatten. Die wirkliche Bedrohung sei:

… ist, dass solche Maschinen, obwohl sie an sich hilflos sind, von Menschen benutzt oder Menschen blockiert werden können, um ihre Kontrolle über den Rest der Rasse zu erhöhen, oder dass politische Führer versuchen können, die Kontrolle über ihre Bevölkerung mit politischen Methoden zu übernehmen, anstatt mit den Maschinen selbst, so eng und gleichgültig gegenüber dem Menschen, als wären sie mechanisch erfunden.

Offensichtlich sind diese Gefahren jetzt sehr relevant.

In den Medien zum Beispiel ermöglichen uns Innovationen bei digitalem Audio und Video einen geringen Preis (in den Augen von Audiophilen und Kinogängern), um von analogen Formaten abzuweichen, und erhalten im Gegenzug eine äußerst einfache - zu einfache - Art, Aufnahmen nahezu ohne Einschränkungen abzuspielen.

Werbevideo:

Image
Image

Aber es gibt enorme versteckte Kosten. Orwells Dienst der Wahrheit ist zu einer echten Chance geworden. Die Techniken von AI zur Erstellung praktisch nicht unterscheidbarer gefälschter "Aufzeichnungen" machen die Werkzeuge, die wir für Untersuchungen in den letzten 150 Jahren verwendet haben, überflüssig.

Wir müssen nur die kurze Ära der fotografischen Beweise aufgeben und in die alte Welt zurückkehren, in der menschliches Gedächtnis und Vertrauen der Goldstandard waren. Oder wir können neue Verteidigungs- und Angriffsmethoden im Kampf um die Wahrheit entwickeln. Eines der aufregendsten Beispiele der letzten Zeit ist die Tatsache, dass es viel billiger ist, einen Ruf zu zerstören, als denselben Ruf zu verdienen und zu schützen. Wiener sah dieses Phänomen sehr weit gefasst: "Auf lange Sicht wird es keinen Unterschied zwischen der Bewaffnung und der Bewaffnung des Feindes geben." Die Ära der Information ist auch eine Ära der Desinformation geworden.

Was wir tun können? Der Schlüssel ist Wieners gleiche Beobachtung, dass "diese Maschinen" "selbst hilflos" sind. Wir erstellen Tools, keine Kollegen, und die wirkliche Bedrohung besteht darin, dass wir den Unterschied nicht sehen.

Künstliche Intelligenz in ihrer gegenwärtigen Form ist für die menschliche Intelligenz parasitär. Er nimmt sehr kurzerhand alles in Besitz, was menschliche Schöpfer geschaffen haben, und zeichnet Muster - einschließlich unserer geheimsten Gewohnheiten. Diese Maschinen haben noch keine Ziele oder Strategien, sind nicht zu Selbstkritik und Innovation fähig, sie studieren nur unsere Datenbanken, ohne ihre eigenen Gedanken und Ziele.

Sie sind, wie Wiener sagt, hilflos, nicht in dem Sinne, dass sie angekettet oder immobilisiert sind, nein, sie sind überhaupt keine Agenten - sie haben nicht die Fähigkeit, "aus Gründen zu handeln", wie Kant es ausdrücken würde.

Langfristig ist eine „starke KI“oder allgemeine künstliche Intelligenz grundsätzlich möglich, aber nicht wünschenswert. Die noch begrenzte KI, die heute in der Praxis möglich ist, wird nicht böse sein. Aber es stellt eine Bedrohung dar - zum Teil, weil es für eine mächtige KI gehalten werden kann.

Wie stark ist künstliche Intelligenz heute?

Die Kluft zwischen den heutigen Systemen und den Science-Fiction-Systemen, die die Vorstellungskraft der Bevölkerung überschwemmen, ist immer noch groß, obwohl viele Menschen, sowohl Amateure als auch Profis, sie tendenziell unterschätzen. Werfen wir einen Blick auf IBMs Watson, der heutzutage durchaus respektabel sein kann.

Dieser Supercomputer ist das Ergebnis eines extrem umfangreichen Forschungs- und Entwicklungsprozesses (Forschung und Entwicklung), an dem viele Menschen und Intelligenzdesigns über viele Jahrhunderte beteiligt waren. Er verbraucht tausende Male mehr Energie als das menschliche Gehirn. Sein Sieg in Gefahr! war ein wahrer Triumph, der durch die formelmäßigen Einschränkungen der Regeln von Jeopardy! ermöglicht wurde, aber selbst diese Regeln mussten überarbeitet werden, damit er teilnehmen konnte. Ich musste ein wenig auf Vielseitigkeit verzichten und Menschlichkeit hinzufügen, um die Show zu machen.

Watson ist ein schlechtes Unternehmen, trotz irreführender Anzeigen von IBM, die KI-Konversationsfähigkeit auf beiden Ebenen versprechen, und Watson in einen glaubwürdigen facettenreichen Agenten zu verwandeln, wäre wie einen Taschenrechner in Watson zu verwandeln. Watson ist vielleicht ein guter Computerfall für einen solchen Agenten, aber eher ein Kleinhirn oder eine Amygdala als ein Verstand - bestenfalls ein spezielles Subsystem, das als Unterstützung dient, aber nicht annähernd ein System zum Planen und Formulieren von Zielen auf der Grundlage der erhaltenen Konversationserfahrung.

Warum sollten wir aus Watson einen denkenden und kreativen Agenten schaffen wollen? Vielleicht hat uns Turings brillante Idee - der berühmte Turing-Test - in eine Falle gelockt: Wir waren besessen davon, zumindest die Illusion einer realen Person zu erzeugen, die vor einem Bildschirm sitzt und das "bedrohliche Tal" umgeht.

Die Gefahr besteht darin, dass die Macher der KI seit der Präsentation seiner Aufgabe durch Turing - die in erster Linie dazu diente, die Richter zu täuschen - versucht haben, dies mit lustigen humanoiden Puppen zu erreichen, "Cartoon" -Versionen, die die Uneingeweihten faszinieren und entwaffnen werden. ELIZA von Joseph Weisenbaum, der allererste Chatbot, war ein Paradebeispiel für die Schaffung einer solchen Illusion, jedoch mit einem äußerst einfachen Algorithmus, der die Menschen davon überzeugen konnte, dass sie aufrichtige und aufrichtige Gespräche mit anderen Menschen führten.

Er war besorgt über die Leichtigkeit, mit der die Leute bereit sind, dies zu glauben. Und wenn wir etwas aus dem jährlichen Lebner Prize Limited Turing Test herausgefunden haben, dann fallen selbst die klügsten Leute, die sich mit Computerprogrammierung nicht auskennen, leicht auf diese einfachen Tricks herein.

Die Einstellung der Menschen in der KI zu solchen Techniken reicht von wertend bis belohnend, und der Konsens ist, dass diese Tricks nicht sehr tief sind, aber nützlich sein können. Eine Änderung der Einstellung, die sehr willkommen wäre, wäre ein aufrichtiges Eingeständnis, dass mit Puppen bemalte Androiden falsche Werbung sind, die verurteilt und nicht gefördert werden sollte.

Wie kann dies erreicht werden? Sobald wir verstehen, dass Menschen anfangen, Entscheidungen über Leben und Tod zu treffen, indem sie den „Ratschlägen“von KI-Systemen folgen, deren interne Abläufe fast unverständlich sind, werden wir einen guten Grund für diejenigen sehen, die Menschen dazu drängen, solchen Systemen zu vertrauen und sich auf die Normen von Moral und Recht zu verlassen.

Künstliche Intelligenzsysteme sind sehr leistungsfähige Werkzeuge. So mächtig, dass selbst Experten einen guten Grund haben, ihrem eigenen Urteil nicht zu vertrauen, wenn diese Werkzeuge „Urteile“darstellen. Wenn diese Benutzer der Tools jedoch finanziell oder anderweitig von der Verbreitung dieser Tools profitieren möchten, müssen sie sicherstellen, dass sie wissen, wie dies mit voller Verantwortung, maximaler Kontrolle und Rechtfertigung zu tun ist.

Die Lizenzierung und Genehmigung der Betreiber solcher Systeme - genau wie wir Apotheker, Kranführer und andere Fachleute lizenzieren, deren Fehler und Fehleinschätzungen schwerwiegende Folgen haben können - kann die Entwickler von KI-Systemen mit Unterstützung von Versicherungsunternehmen und anderen Organisationen möglicherweise dazu verpflichten, den langen Weg zu gehen Suchen Sie nach den Schwächen und Mängeln ihrer Produkte und schulen Sie auch diejenigen, die mit ihnen arbeiten werden.

Man kann sich eine Art Reverse-Turing-Test vorstellen, bei dem der Richter Gegenstand der Bewertung sein wird; Bis er Schwäche, Grenzüberschreitung und Lücken im System findet, erhält er keine Lizenz. Ein solcher Richter erfordert eine ernsthafte Ausbildung, um eine Zertifizierung zu erhalten. Der Drang, einem Objekt eine menschliche Denkfähigkeit zuzuschreiben, wie wir es normalerweise tun, wenn wir einen intelligenten Agenten treffen, ist sehr, sehr stark.

In der Tat ist die Fähigkeit, dem Drang zu widerstehen, etwas Humanisiertes zu sehen, eine seltsame Sache. Viele Menschen würden es als zweifelhaft empfinden, ein solches Talent zu fördern, da selbst die pragmatischsten Benutzer des Systems gelegentlich "freundlich" zu ihren Werkzeugen sind.

Unabhängig davon, wie sorgfältig KI-Designer sich dafür entscheiden, gefälschte "menschliche" Obertöne in ihren Produkten zu beseitigen, sollten wir damit rechnen, dass Etiketten, Problemumgehungen und tolerierbare Verzerrungen des tatsächlichen "Verständnisses" beider Systeme und ihrer Bediener aufblühen. Genauso wie Medikamente mit einer langen Liste von Nebenwirkungen im Fernsehen beworben werden oder Alkohol mit einer Fülle von Kleingedruckten mit allen gesetzlich vorgeschriebenen Warnungen beworben wird, werden Entwickler künstlicher Intelligenz das Gesetz einhalten, aber die Warnungen sind hochentwickelt.

Warum brauchen wir künstliche Intelligenz?

Wir brauchen keine künstlichen bewussten Mittel. Es gibt eine Vielzahl von natürlichen bewussten Wirkstoffen, die ausreichen, um jede Aufgabe für Fachleute und privilegierte Personen auszuführen. Wir brauchen intelligente Werkzeuge. Werkzeuge haben keine Rechte und sollten keine Gefühle haben, die verletzt oder missbraucht werden können.

Ein Grund, künstlich bewusste Agenten nicht zu machen, ist, dass sie, obwohl sie autonom werden können (und im Prinzip so autonom, sich selbst verbessern oder sich selbst erschaffen können wie jede Person), nicht - ohne besondere Erlaubnis - mit unseren teilen sollten natürliche bewusste Agenten, unsere Verletzlichkeit oder unsere Sterblichkeit.

Daniel Dennett, Professor für Philosophie an der Tufts University, forderte einmal Studenten in einem Workshop zu künstlichen Wirkstoffen und Autonomie heraus: Geben Sie mir die Spezifikationen eines Roboters, der einen Vertrag mit Ihnen unterzeichnen kann - kein Ersatz, der einer anderen Person gehört, sondern sich selbst. Es geht nicht darum, die Gründe zu verstehen oder den Stift auf dem Papier zu manipulieren, sondern um das Eigentum und das wohlverdiente Eigentum an Rechtsstatus und moralischer Verantwortung. Kleine Kinder können solche Verträge nicht unterschreiben, ebenso wenig wie behinderte Menschen, deren rechtlicher Status sie zur Vormundschaft verpflichtet und den Vormündern Verantwortung auferlegt.

Das Problem bei Robotern, die einen solch hohen Status erreichen möchten, ist, dass sie wie Superman zu anfällig sind, um solche Behauptungen aufzustellen. Was wird passieren, wenn sie sich weigern? Was ist die Strafe für das Brechen eines Versprechens? Werden sie in einem Käfig eingesperrt oder auseinander genommen? Ein Gefängnis für künstliche Intelligenz wird nicht unpraktisch sein, wenn wir nicht zuerst den Durst nach Freiheit aufladen, der von der KI selbst nicht ignoriert oder behindert werden kann. Durch das Zerlegen einer KI werden die auf ihrer Festplatte und in der Software gespeicherten Informationen nicht gelöscht.

Die einfache digitale Aufzeichnung und Übertragung von Daten - ein Durchbruch, der es Software und Daten ermöglichte, tatsächlich Unsterblichkeit zu erreichen - macht Roboter unverwundbar. Wenn es nicht offensichtlich erscheint, denken Sie darüber nach, wie sich die Moral der Menschen ändern würde, wenn wir die Menschen jede Woche unterstützen könnten. Das Springen von einer Brücke ohne Gummiband am Sonntag nach einem Backup am Freitag kann eine vorschnelle Entscheidung sein. Dann können Sie sich später das Filmmaterial Ihres vorzeitigen Todes ansehen.

Deshalb erschaffen wir keine bewussten - wir möchten erschaffen - humanoiden Wirkstoffe, sondern eine völlig neue Art von Kreaturen, einige Orakel, unbewusst, ohne Angst vor dem Tod, ohne Ablenkung durch Liebe und Hass, ohne Persönlichkeit: Spiegel der Wahrheit, die mit ziemlicher Sicherheit vom Menschen infiziert werden Lügen.

Der menschliche Gebrauch von Menschen wird sich bald - wieder einmal - für immer ändern, aber wenn wir die Verantwortung für unsere Entwicklungsbahn übernehmen, können wir unnötige Gefahren vermeiden.

Ilya Khel