Echte Künstliche Intelligenz Kann Durch Lösen Von Drei Hauptproblemen Erzeugt Werden - - Alternative Ansicht

Inhaltsverzeichnis:

Echte Künstliche Intelligenz Kann Durch Lösen Von Drei Hauptproblemen Erzeugt Werden - - Alternative Ansicht
Echte Künstliche Intelligenz Kann Durch Lösen Von Drei Hauptproblemen Erzeugt Werden - - Alternative Ansicht

Video: Echte Künstliche Intelligenz Kann Durch Lösen Von Drei Hauptproblemen Erzeugt Werden - - Alternative Ansicht

Video: Echte Künstliche Intelligenz Kann Durch Lösen Von Drei Hauptproblemen Erzeugt Werden - - Alternative Ansicht
Video: KI in der Medizin: Einsatzmöglichkeiten und Potenziale 2024, April
Anonim

Auf einer Konferenz über tiefes maschinelles Lernen in London im letzten Monat wurde ein Thema mehrmals angesprochen: die Wichtigkeit, zu verstehen, was wir wirklich tun. Während Unternehmen wie Google weiterhin behaupten, dass wir alle im „ersten Jahrhundert der KI“leben, entdecken maschinelles Lernen gerade erst neue Tätigkeitsfelder (wie Sprach- und Bilderkennung), diejenigen, die wirklich stehen Versuchen Sie an der Spitze der KI-Forschung zu betonen, dass noch viele weitere Herausforderungen zu bewältigen sind, bevor das wahre Zeitalter der KI erreicht ist. Selbst wenn wir bereits digitale Assistenten haben, die wie Computer in Science-Fiction-Filmen sprechen können, bedeutet dies nicht, dass wir der Schaffung echter künstlicher Intelligenz ernsthaft nahe sind.

Letztendlich sind alle Probleme, die der Schaffung einer echten KI im Wege stehen, wie folgt: in der Menge an Informationen, die in sie investiert werden müssen; in unserer Unfähigkeit, eine KI zu schaffen, die mehrere Aufgaben gleichzeitig gleich gut bewältigen kann; Tatsächlich haben wir keine Ahnung, wie solche Systeme tatsächlich funktionieren sollten. Technologien für maschinelles Lernen sind bereits 2016 in der Lage, wunderbare Dinge zu tun, aber diese Dinge können manchmal schwierig zu erklären sein, selbst für die Schöpfer selbst. Ganz zu schweigen davon, wie viel Geld das alles kostet. Schauen wir uns die Komplexität an, mit der KI-Ingenieure heute konfrontiert sind.

Erst Informationen, dann KI

Wir alle verstehen vollkommen, dass KI Zugang zu Informationen haben muss, um die Welt um uns herum zu studieren, aber wir verstehen nicht genau, wie viele Informationen benötigt werden. Laut Neil Lawrence, Professor am Department of Machine Learning der Sheffield University und Mitglied des AI-Technologieentwicklungsteams bei Amazon, benötigen diese Systeme hunderttausende Male mehr Informationen als ein Mensch, um die Welt zu verstehen und bestimmte Objekte zu erkennen.

„Wenn Sie sich alle Branchen und Bereiche ansehen, in denen Ingenieure einige Erfolge beim maschinellen Tiefenlernen erzielt haben, können Sie sofort erkennen, wie viele Informationen zur Lösung all dieser Probleme verwendet wurden“, führt Lawrence als Beispiel an die gleichen Sprach- und Bilderkennungstechnologien.

Unternehmen wie Google und Facebook haben Zugriff auf Berge von Informationen, was es natürlich einfacher macht, verschiedene nützliche Tools zu erstellen (z. B. dieselben Sprachsuchtechnologien für Android).

Für Lawrence ist Information heute das, was Kohle in den frühen Jahren der industriellen Revolution war. Als Beispiel zitiert Lawrence Thomas Newcomen, einen Engländer, der 1712 (tatsächlich 60 Jahre vor der Schaffung einer solchen Maschine durch James Watt) eine primitive Version der mit Kohle betriebenen Dampfmaschine schuf. Newcomens Erfindung war nicht perfekt. Im Vergleich zu Watt's Maschine erwies es sich als ineffizient und zu teuer in der Verwendung. Zum größten Teil konnte es nur in Kohlengruben eingesetzt werden, in denen die benötigte Kraftstoffmenge die Mängel der Maschine ausgleichen konnte.

Ein Beispiel für die offene Bilderkennungstechnologie von Facebook

Werbevideo:

Image
Image

Lawrence glaubt, dass es Hunderte dieser Newcomen auf der ganzen Welt geben könnte, die ihre eigenen Modelle für maschinelles Lernen entwickeln. Vielleicht gibt es wirklich revolutionäre Ideen unter ihnen, aber ohne ihre Technologien, die auf riesige Datenbanken mit Informationen über sie zugreifen, wird höchstwahrscheinlich niemand jemals davon erfahren. Große Unternehmen wie Google, Facebook und Microsoft - sie sind die sehr modernen "Bergleute". Sie haben Zugriff auf eine unbegrenzte Menge an Informationen, sodass sie ineffektive maschinelle Lernsysteme erstellen und diese dann verbessern können. Kleine Startups haben zwar großartige Ideen, aber ohne Zugang zu Informationsdatenbanken werden sie niemals etwas Wertvolles erreichen.

Dieses Problem wird noch deutlicher, wenn Sie sich Bereiche ansehen, in denen es noch schwieriger wird, die benötigten Informationen zu erhalten. Nehmen wir zum Beispiel ein Gesundheitssystem, in dem KI verwendet werden könnte, um Aufgaben im Zusammenhang mit der Bildverarbeitung auszuführen - beispielsweise das Auffinden und Erkennen von bösartigen Tumoren auf Röntgenstrahlen. Der Zugriff auf solche Daten ist jedoch in der Regel sehr eingeschränkt. Der wichtigste einschränkende Faktor hier ist laut Lawrence die derzeitige Wahrnehmung der Menschen, dass es für Dritte unethisch ist, auf diese Art von Informationen zuzugreifen. Laut Lawrence besteht das Hauptproblem nicht darin, Wege zur Verbreitung von Informationen zu finden, sondern darin, maschinelle Lernsysteme effizienter zu gestalten und zu lehren, mit weniger Informationen zu arbeiten. Und diese Effizienzverbesserungen könnten laut Wissenschaftler die gleichen 60 Jahre dauern.wie es bei Watt's Auto der Fall war.

Spezialisierung ist eine Sackgasse. AI muss Multitasking können

Eine weitere wichtige Herausforderung bei der Entwicklung wirklich tiefgreifender Modelle für maschinelles Lernen ist die Tatsache, dass alle unsere aktuellen KI-Systeme tatsächlich sehr dumm sind. Laut Rya Hudsell, einer Forscherin bei DeepMind bei Google, kann diesen Systemen tatsächlich beigebracht werden, Aufgaben zur Erkennung von Katzen auszuführen, damit zu spielen und gleichzeitig sehr effektiv bei der Ausführung dieser Aufgaben zu sein. Aber "im Moment auf der Welt gibt es kein einziges vollwertiges neuronales Netzwerk und Methoden, die es trainieren würden, Bilder zu erkennen, Space Invaders zu spielen und Musik zu betrachten." Im Gegenzug sind neuronale Netze die Schlüsselbasis für die Schaffung von Deep-Learning-Systemen für Maschinen.

Und dieses Problem ist viel bedeutender, als es auf den ersten Blick erscheinen mag. Als DeepMind im vergangenen Februar bekannt gab, dass es ein System gebaut hat, das 49 Atari-Spiele spielen kann, könnte dies wirklich als großer Erfolg angesehen werden. Am Ende stellte sich jedoch heraus, dass das System nach Abschluss eines Spiels jedes Mal umgeschult werden muss, um ein anderes zu spielen. Hudsell merkt an, dass wir dem System nicht beibringen können, alle Spiele gleichzeitig zu spielen, da sich die Regeln der beiden miteinander vermischen und letztendlich die Aufgabe beeinträchtigen. Jedes Mal, wenn Sie die Maschine neu lernen müssen und jedes Mal, wenn das System „vergisst“, wie das vorherige Spiel gespielt wird.

„Um allgemeine künstliche Intelligenz zu schaffen, brauchen wir etwas, das uns hilft, einer Maschine beizubringen, mehrere Aufgaben gleichzeitig auszuführen. Jetzt können wir sie nicht einmal mehr zum Spielen trainieren “, sagt Hadsell.

Die Lösung kann in den sogenannten progressiven neuronalen Netzen verborgen werden - unabhängige Deep-Learning-Systeme werden zu einem Ganzen kombiniert, um effizienter mit Informationen arbeiten zu können. In einem veröffentlichten wissenschaftlichen Artikel zu diesem Thema sprachen Hadsell und ihr Forscherteam darüber, wie sich ihr progressives neuronales Netzwerk im Spiel Pong anpassen konnte, wobei die Bedingungen jedes Mal etwas anders waren (in einem Fall wurden die Farben geändert, im anderen Fall waren sie verwirrt Kontrolle), viel schneller als das "normale" neuronale Netz, das jedes Mal neu trainiert werden musste.

Das Grundprinzip eines progressiven neuronalen Netzwerks

Image
Image

Die Methode hat sich als sehr vielversprechend erwiesen und wurde kürzlich zur Abstimmung von Roboterarmen verwendet, um den Lernprozess von einer Woche auf nur einen Tag zu beschleunigen. Leider hat diese Methode auch ihre Grenzen. Hudsell merkt an, dass bei progressiven neuronalen Netzen der Lernprozess nicht darauf reduziert werden kann, einfach neue Aufgaben in ihr Gedächtnis aufzunehmen. Wenn Sie solche Systeme weiterhin miteinander kombinieren, werden Sie früher oder später zu einem "zu komplexen Modell, das nicht nachvollziehbar ist". In diesem Fall werden wir über eine andere Ebene sprechen. Die Ebene, auf der verschiedene Aufgaben im Allgemeinen auf die gleiche Weise ausgeführt werden. Eine KI zu bauen, die in der Lage ist, Stühle zu entwerfen, und eine KI mit menschlicher Intelligenz zu schaffen, die Gedichte schreiben und Differentialgleichungen lösen kann, ist nicht dasselbe.

KI kann KI genannt werden, wenn wir zeigen können, wie es funktioniert

Ein weiteres entmutigendes Hindernis ist das Verständnis, wie künstliche Intelligenz bei der Lösung von Problemen zu ihren Schlussfolgerungen gelangt. Neuronale Netze sind für den Betrachter normalerweise undurchlässig. Trotz der Tatsache, dass wir wissen, wie sie gesammelt werden und wie Informationen durch sie fließen, bleiben die Entscheidungen, die sie treffen, normalerweise unerklärlich.

Ein hervorragendes Beispiel für dieses Problem ist das Virginia Tech-Experiment. Die Forscher haben ein Verfolgungssystem für das neuronale Netzwerk entwickelt, das aufzeichnet, von welchen Pixeln in einem digitalen Bild der Computer zu analysieren beginnt. Die Forscher zeigten die Bilder des neuronalen Netzwerks des Schlafzimmers und stellten ihm die Frage: "Was hängt an den Fenstern?" Anstatt direkt in die Fenster zu schauen, begann die Maschine, die Bilder vom Boden aus zu analysieren. Ein Bett kam in ihr Sichtfeld und das Auto antwortete: "Es gibt Vorhänge an den Fenstern." Die Antwort stellte sich als richtig heraus, aber nur, weil dem System "beigebracht" wurde, mit einer begrenzten Datenmenge zu arbeiten. Basierend auf dem gezeigten Bild kam das neuronale Netzwerk zu dem Schluss, dass, wenn das Foto ein Schlafzimmer zeigt, höchstwahrscheinlich Vorhänge an den Fenstern vorhanden sein sollten. Als also ein Detail in ihr Sichtfeld kam,die normalerweise in jedem Schlafzimmer (in diesem Fall einem Bett) zu finden ist, hat sie das Bild nicht weiter analysiert. Sie hat dieses Bett vielleicht nicht einmal gesehen, sie hat die Vorhänge gesehen. Es ist logisch, aber sehr oberflächlich und angezogen. Außerdem haben viele Schlafzimmer keine Vorhänge!

Die Tracking-Technologie ist nur ein Werkzeug, mit dem wir verstehen können, was eine Maschine dazu veranlasst, eine bestimmte Entscheidung zu treffen. Es gibt jedoch bessere Methoden, mit denen maschinelle Lernsysteme logischer und gründlicher analysiert werden können. Murray Shanahan, Professor für kognitive Robotik am Imperial College London, glaubt, dass die beste Lösung für das Problem darin besteht, das altmodische Paradigma der KI zu überarbeiten - die symbolische KI oder GOFAI (Good Old-Fashioned Artificial Intelligence, "gute alte künstliche Intelligenz"). Sein Paradigma läuft darauf hinaus, dass absolut jede Aufgabe in grundlegende logische Elemente zerlegt werden kann, wobei jedes Wort nur eine komplexe Menge einfacher Symbole ist. Durch die Kombination dieser Symbole - in Aktionen, Ereignissen, Objekten usw. - kann das Denken synthetisiert werden. Denken Sie nur daran, dass solche Entwicklungen in den Tagen durchgeführt wurden, als Computer gigantische Boxen von der Größe eines Raums waren und auf Magnetband arbeiteten (die Arbeiten begannen Mitte der 50er Jahre und dauerten bis zum Ende der 80er Jahre des letzten Jahrhunderts).

Shanahans Vorschlag ist, symbolische Beschreibungen der GOFAI und Deep-Learning-Technologien zu kombinieren. Dies ermöglicht es nicht nur, solchen Systemen neue Informationen zuzuführen und darauf zu warten, dass sie bestimmte Verhaltensmuster und Problemlösungen auf der Grundlage dieser Informationen ableiten. Shanahans Ansatz soll solchen Systemen Ausgangspunkte für das Verständnis der Welt verleihen. Dies wird seiner Meinung nach nicht nur das von Hadsell beschriebene Problem der KI-Transparenz lösen, sondern auch das Problem des übertragbaren Lernens.

"Man kann mit Sicherheit sagen, dass Breakout Pong sehr ähnlich ist, da in beiden Fällen" Plattformen "und" Bälle "verwendet werden, aber aus Sicht der menschlichen Wahrnehmung und Logik handelt es sich um zwei völlig unterschiedliche Spiele. Und es ist praktisch unmöglich, Parallelen zwischen ihnen zu ziehen. Es ist wie der Versuch, die Struktur des Atoms und die Struktur des gesamten Sonnensystems zu kombinieren."

Shanahan und seine Kollegen am Imperial College London arbeiten derzeit an einer neuen Methode des maschinellen Lernens (die sie als tiefes symbolisch stimuliertes Lernen bezeichnen) und haben bereits die Ergebnisse einiger kleiner Experimente veröffentlicht. Die Methode steckt noch in den Kinderschuhen und daher ist es schwierig zu sagen, ob sie auf größere Systeme skaliert werden kann, die mit verschiedenen Datentypen arbeiten. Trotzdem besteht immer noch die Möglichkeit, dass diese Methode zu etwas mehr wird. Schließlich war Deep Learning immer der langweiligste und langweiligste Teil der KI-Entwicklung, bis Forscher einen Weg fanden, schnell auf Daten zuzugreifen und massive Rechenleistung zu erlangen. Gut möglich,Es ist Zeit, zu alten KI-Paradigmen zurückzukehren und sie in einer neuen Umgebung auszuprobieren.

NIKOLAY KHIZHNYAK