Künstliche Intelligenz Ist Alles Andere Als So Klug, Wie Sie Und Elon Musk Es Für - Alternative Ansicht

Inhaltsverzeichnis:

Künstliche Intelligenz Ist Alles Andere Als So Klug, Wie Sie Und Elon Musk Es Für - Alternative Ansicht
Künstliche Intelligenz Ist Alles Andere Als So Klug, Wie Sie Und Elon Musk Es Für - Alternative Ansicht

Video: Künstliche Intelligenz Ist Alles Andere Als So Klug, Wie Sie Und Elon Musk Es Für - Alternative Ansicht

Video: Künstliche Intelligenz Ist Alles Andere Als So Klug, Wie Sie Und Elon Musk Es Für - Alternative Ansicht
Video: ELON MUSK WARNT: ALLES NUR SIMULIERT! 🔥 KÜNSTLICHE INTELLIGENZ WIRD KOMMEN & ZUKUNFTSPROGNOSE... 2024, Kann
Anonim

Im März 2016 konnte der AlphaGo-Computeralgorithmus von DeepMind Lee Sedol, den damals besten Puzzle-Spieler der Welt, besiegen. Dieses Ereignis wurde zu einem der entscheidenden Momente in der Geschichte der Technologiebranche, die einst der Sieg des Deep Blue-Computers durch IBM über den Schachweltmeister Garry Kasparov und der Sieg des Watson-Supercomputers derselben IBM im Jeopardy-Quiz 2011 waren.

Trotz dieser Siege, so beeindruckend sie auch sein mögen, geht es mehr um Trainingsalgorithmen und den Einsatz von roher Rechenleistung als um echte künstliche Intelligenz. Der frühere MIT-Robotikprofessor Rodney Brooks, Mitbegründer von iRobot und später von Rethink Robotics, sagt, das Erlernen eines Algorithmus zum Spielen eines komplexen strategischen Puzzles sei keine Intelligenz. Zumindest nicht so, wie wir es uns für eine Person vorstellen.

Der Experte erklärt, dass AlphaGo, egal wie stark es sich bei der Erfüllung der ihm zugewiesenen Aufgabe erweisen mag, zu nichts anderem fähig ist. Außerdem ist er so eingestellt, dass er nur Go auf einem Standard-19 x 19-Spielfeld spielt. In einem Interview mit TechCrunch sprach Brooks darüber, wie er kürzlich die Gelegenheit hatte, mit dem DeepMind-Team zu chatten und ein interessantes Detail herauszufinden. Auf die Frage, was passieren würde, wenn die Organisatoren die Größe des Go-Boards ändern und auf 29 x 29 Felder erhöhen würden, gab das AlphaGo-Team zu, dass bereits eine geringfügige Änderung des Spielfelds dazu führen würde, dass "wir fertig sind".

„Ich denke, die Leute sehen, wie gut ein Algorithmus eine Sache macht, und sie scheinen sofort zu glauben, dass er andere genauso effektiv kann. Aber der Punkt ist, er kann nicht “, kommentierte Brooks.

Grobe Intelligenz

Im Mai dieses Jahres stellte Kasparov in einem Interview mit Davin Coldway bei TechCrunch Disrupt fest, dass die Entwicklung eines Computers, der auf Weltebene Schach spielen kann, eine Sache ist, aber es ist eine ganz andere, einen solchen Computer als reine künstliche Intelligenz zu bezeichnen, da dies nicht der Fall ist. Es ist nur eine Maschine, die ihre gesamte Rechenleistung in die Lösung eines Problems steckt, das sie gewohnt ist, am besten zu lösen.

„Im Schach gewinnen Maschinen aufgrund der Fähigkeit, tief zu rechnen. Sie können mit einer riesigen Datenbank, sehr schneller Hardware und logischeren Algorithmen völlig unbesiegbar werden. Es fehlt ihnen jedoch das Verständnis. Sie erkennen keine strategischen Muster. Die Maschinen haben keinen Zweck “, sagte Kasparov.

Werbevideo:

Gil Pratt, CEO des Toyota Institute, Toyotas Abteilung für KI und KI bei Heimrobotern und selbstfahrenden Autos, sprach auf der Robotics Session ebenfalls mit TechCrunch. Seiner Meinung nach kann die Angst, die wir von einer Vielzahl von Menschen hören, einschließlich Elon Musk, der kürzlich künstliche Intelligenz als "existenzielle Bedrohung für die Menschheit" bezeichnet hat, nur auf die dystopischen Beschreibungen der Welt zurückzuführen sein, die uns Science Fiction bietet.

„Unsere derzeitigen Deep-Learning-Systeme können ihre zugewiesenen Aufgaben nur so gut ausführen, wie wir sie entworfen haben. In Wirklichkeit sind sie jedoch hochspezialisiert und von geringem Umfang. Daher halte ich es jedes Mal im Zusammenhang mit diesem Thema für wichtig, sowohl zu erwähnen, wie gut sie sind, als auch wie unwirksam sie tatsächlich sind. Und auch, wie weit wir von dem Punkt entfernt sind, an dem diese Systeme die Bedrohung darstellen können, über die Elon Musk und andere sprechen “, kommentierte Pratt.

Brooks wiederum stellte auf der TechCrunch Robotics Session fest, dass die Menschen im Allgemeinen die Tendenz haben zu glauben, dass ein Algorithmus, der die "X" -Aufgabe bewältigen kann, anscheinend so klug ist wie eine Person.

„Ich denke, der Grund, warum Menschen, einschließlich Elon Musk, diesen Fehler machen, ist dieser. Wenn wir sehen, dass eine Person mit der ihr zugewiesenen Aufgabe sehr gute Arbeit leistet, verstehen wir, dass sie in dieser Angelegenheit über eine hohe Kompetenz verfügt. Es scheint mir, dass die Leute versuchen, dasselbe Modell auf maschinelles Lernen anzuwenden. Und hier liegt der größte Fehler “, sagt Brooks.

Mark Zuckerberg, CEO von Facebook, hielt letzten Sonntag eine Live-Übertragung ab, in der er auch Elon Musks Kommentare kritisierte und sie als "ziemlich verantwortungslos" bezeichnete. Laut Zuckerberg wird AI unser Leben erheblich verbessern können. Musk wiederum beschloss, nicht zu schweigen und antwortete Zuckerberg, dass er "begrenztes Verständnis" für KI habe. Das Thema ist noch nicht abgeschlossen, und Musk versprach etwas später, detaillierter auf die Angriffe von Kollegen aus der IT-Branche zu reagieren.

Übrigens ist Musk nicht der einzige, der glaubt, dass KI eine potenzielle Bedrohung darstellen kann. Der Physiker Stephen Hawking und der Philosoph Nick Bostrom äußern ebenfalls Bedenken hinsichtlich des Potenzials künstlicher Intelligenz, die Lebensweise der Menschheit zu durchdringen. Höchstwahrscheinlich handelt es sich jedoch um eine allgemeinere künstliche Intelligenz. Über das, was in Labors wie Facebook AI Research, DeepMind und Maluuba untersucht wird, und nicht über die höher spezialisierte KI, deren erste Anfänge wir heute sehen können.

Brooks merkt auch an, dass viele der Kritiker der KI nicht einmal in diesem Bereich arbeiten, und schlug vor, dass diese Leute einfach nicht verstehen, wie schwierig es sein kann, eine Lösung für jedes einzelne Problem in diesem Bereich zu finden.

„Tatsächlich gibt es nicht viele Menschen, die KI als existenzielle Bedrohung betrachten. Stephen Hawking, britischer Astrophysiker und Astronom Martin Rees … und einige andere. Die Ironie ist, dass die meisten von ihnen eines gemeinsam haben - sie arbeiten nicht einmal auf dem Gebiet der künstlichen Intelligenz “, sagte Brooks.

"Für diejenigen von uns, die mit KI arbeiten, ist es ziemlich offensichtlich, wie schwierig es sein kann, etwas auf der Ebene des fertigen Produkts zum Laufen zu bringen."

KI falsche Darstellung

Ein Teil des Problems kommt auch von der Tatsache, dass wir all diese "künstliche Intelligenz" nennen. Die Wahrheit ist, dass diese "Intelligenz" überhaupt nicht der menschlichen Intelligenz ähnelt, die normalerweise in Nachschlagewerken und Vokabeln als "die Fähigkeit zum Lernen, Verstehen und Anpassen an neue Situationen" beschrieben wird.

Pascal Kaufman, CEO von Starmind, einem Startup, das anderen Unternehmen hilft, mithilfe kollektiver menschlicher Intelligenz Lösungen für geschäftliche Probleme zu finden, studiert seit 15 Jahren Neurowissenschaften. Kaufman stellt fest, dass das menschliche Gehirn und der Computer sehr unterschiedlich funktionieren, und es wäre ein offensichtlicher Fehler, sie zu vergleichen.

"Die Analogie - das Gehirn funktioniert wie ein Computer - ist sehr gefährlich und steht dem Fortschritt der KI im Wege", sagt Kaufman.

Der Experte glaubt auch, dass wir das Verständnis der menschlichen Intelligenz nicht verbessern werden, wenn wir es technologisch betrachten.

„Es ist ein Missverständnis, dass Algorithmen wie das menschliche Gehirn funktionieren. Die Leute lieben Algorithmen und denken, dass das Gehirn mit ihrer Hilfe beschrieben werden kann. Ich denke, das ist grundsätzlich falsch “, fügt Kaufman hinzu.

Wenn etwas schief läuft

Es gibt viele Beispiele, bei denen KI-Algorithmen bei weitem nicht so intelligent sind, wie wir es früher gedacht haben. Und einer der vielleicht unrühmlichsten ist der KI-Algorithmus Tay, der vom Entwicklungsteam für KI-Systeme von Microsoft entwickelt wurde und im vergangenen Jahr außer Kontrolle geraten ist. Es dauerte weniger als einen Tag, um den Bot in einen echten Rassisten zu verwandeln. Experten sagen, dass dies jedem KI-System passieren kann, wenn es mit schlechten Vorbildern konfrontiert wird. In Tay's Fall geriet sie unter den Einfluss rassistischer und anderer beleidigender Vokabeln. Und da es so programmiert war, dass es "lernt" und "Verhalten spiegelt", geriet es bald außer Kontrolle der Forscher.

Weit verbreitete Untersuchungen von Cornell und Wyoming haben ergeben, dass es sehr einfach ist, Algorithmen zu täuschen, die zur Identifizierung digitaler Bilder trainiert wurden. Sie fanden heraus, dass ein Bild, das für Menschen wie "durcheinandergebrachter Unsinn" aussah, vom Algorithmus als Bild eines Alltagsgegenstandes wie eines "Schulbusses" identifiziert wurde.

Laut einem im MIT Tech Review veröffentlichten Artikel, der dieses Projekt beschreibt, ist nicht ganz klar, warum der Algorithmus so ausgetrickst werden kann, wie es Forscher getan haben. Es wurde herausgefunden, dass die Menschen gelernt haben, zu erkennen, was vor ihnen liegt - entweder ein autarkes Bild oder eine Art unverständliches Bild. Algorithmen, die wiederum Pixel analysieren, sind einfacher zu manipulieren und zu täuschen.

Bei selbstfahrenden Autos ist alles viel komplizierter. Es gibt einige Dinge, die eine Person versteht, wenn sie sich auf bestimmte Situationen vorbereitet. Es wird sehr schwierig sein, einer Maschine dies beizubringen. Ein großer Artikel, der im Januar dieses Jahres in einem der Automobil-Blogs von Rodney Brooks veröffentlicht wurde, nennt mehrere Beispiele für solche Situationen, darunter einen, der ein selbstfahrendes Auto beschreibt, das sich einem Stoppschild nähert, das sich neben einem Fußgängerüberweg in der Stadt befindet. Ganz am Anfang stehen ein Erwachsener und ein Kind und kommunizieren.

Der Algorithmus wird höchstwahrscheinlich so eingestellt, dass er darauf wartet, dass Fußgänger die Straße überqueren. Aber was wäre, wenn diese Fußgänger nicht einmal daran denken würden, die Straße zu überqueren, während sie beispielsweise auf einen Schulbus warten? Ein menschlicher Fahrer könnte in diesem Fall Fußgänger hupen, die ihm als Antwort winken und ihm mitteilen könnten, dass er passieren kann. Ein unbemanntes Fahrzeug in einer solchen Situation kann einfach festsitzen und endlos darauf warten, dass Menschen die Straße überqueren, weil der Algorithmus solche einzigartigen menschlichen Signale nicht versteht, schreibt Brooks.

Jedes dieser Beispiele zeigt uns, wie weit wir bei der Entwicklung von Algorithmen für künstliche Intelligenz noch gehen müssen. Wie gut verallgemeinerte KI-Entwickler erfolgreich sein können, ist noch eine Frage. Es gibt Dinge, mit denen eine Person leicht fertig werden kann, aber es wird eine echte Qual sein, den Algorithmus zu lernen. Warum? Weil wir Menschen in unserem Lernen nicht auf eine Reihe spezifischer Aufgaben beschränkt sind.

Nikolay Khizhnyak

Empfohlen: