Fünf Jahreszeiten künstlicher Intelligenz. Er schlägt eine Person in Go in Stücke, übernimmt die Kontrolle über sein Auto und ersetzt ihn bei der Arbeit und kann gleichzeitig die Wirksamkeit der Medizin verbessern. Seine lange Geschichte reicht bis ins Jahr 1958 zurück, als eine riesige Maschine zwischen rechts und links unterscheiden konnte.
1: 0. Dann 2: 0. Und 3: 0. Im März 2016 fand das abschließende Treffen im Four Seasons Hotel in Seoul statt. Danach gab es keinen Zweifel: Der koreanische Go-Champion Lee Sedol verlor 4: 1 gegen einen Computer, auf dem das von einer Tochtergesellschaft von Google entwickelte AlphaGo-Programm ausgeführt wurde "Deepmind". Zum ersten Mal in der Geschichte übertraf der Mechanismus des "maschinellen Lernens" und der "künstlichen neuronalen Netze" das menschliche Gehirn in diesem Spiel, das als schwieriger zu simulieren gilt als Schach. Viele Experten betonen, dass sie ein solches Ergebnis erst in wenigen Jahren erwartet haben.
Für ein breiteres Publikum war dies ein Beweis für die Leistungsfähigkeit der neuen "Deep Learning" -Technologie, die heute im Mittelpunkt von Sprachassistenten, autonomen Autos, Gesichtserkennung, maschineller Übersetzung und auch bei der medizinischen Diagnose steht …
Das Interesse an automatischen Lerntechnologien, das amerikanische und chinesische Unternehmen im Bereich der Hochtechnologien (Google, Amazon, Facebook, Microsoft, Baidu, Tensent) zeigen, deckt den gesamten Planeten ab und springt zunehmend von wissenschaftliche Überschriften von Zeitungen in wirtschaftlichen, analytischen und sozialen Materialien. Tatsache ist, dass künstliche Intelligenz nicht nur große Veränderungen in der Wirtschaft verspricht, sondern auch Gedanken über neue zerstörerische Waffen, die allgemeine Überwachung der Bürger, den Ersatz von Mitarbeitern durch Roboter, ethische Probleme …
Aber woher kam die technologische Revolution der KI? Ihre Geschichte hat genug Höhen und Tiefen. Sie stützte sich auf die Errungenschaften der Neurowissenschaften und der Informatik (wie Sie aus dem Namen ersehen können) sowie überraschenderweise auf die Physik. Ihr Weg führte durch Frankreich, die USA, Japan, die Schweiz und die UdSSR. In diesem Bereich kollidierten verschiedene wissenschaftliche Schulen miteinander. Sie haben an einem Tag gewonnen und am nächsten verloren. Jeder brauchte Geduld, Ausdauer und Risikobereitschaft. Es gibt zwei Winter und drei Quellen in dieser Geschichte.
Selbstbewusste Maschine
Alles begann gut. "Die amerikanische Armee sprach über die Idee einer Maschine, die laufen, sprechen, sehen, schreiben, reproduzieren und sich ihrer selbst bewusst werden kann", schrieb die New York Times am 8. Juli 1958. Dieser einspaltige Artikel beschreibt das Perceptron, das der amerikanische Psychologe Frank Rosenblatt in den Labors der Cornell University entwickelt hat. Diese 2-Millionen-Dollar-Maschine hatte damals etwa die Größe von zwei oder drei Kühlschränken und war mit vielen Drähten geflochten. Während einer Demonstration vor der amerikanischen Presse stellte der Perceptron fest, ob sich ein auf einem Blatt gezeichnetes Quadrat rechts oder links befand. Der Wissenschaftler versprach, dass seine Maschine mit einer Investition von weiteren 100.000 Dollar in einem Jahr lesen und schreiben kann. Tatsächlich dauerte dies über 30 Jahre …
Werbevideo:
Wie dem auch sei, die Hauptsache in diesem Projekt war die Inspirationsquelle, die bis zu AlphaGo und seinen "Verwandten" unverändert blieb. Der Psychologe Frank Rosenblatt beschäftigt sich seit über einem Jahrzehnt mit den Konzepten der Kybernetik und künstlichen Intelligenz. Übrigens entwickelte er sein Perceptron mit Hilfe von zwei anderen nordamerikanischen Psychologen: Warren McCulloch und Donald Hebb. Der erste veröffentlichte 1943 einen gemeinsamen Artikel mit Walter Pitts (Walter Pitts) mit dem Vorschlag, "künstliche" Neuronen zu erzeugen, die von natürlichen und mathematischen Eigenschaften ausgehen sollten. Die zweite führte 1949 Regeln ein, die es künstlichen Neuronen ermöglichen, durch Versuch und Irrtum zu lernen, wie es das Gehirn tut.
Die Brücke zwischen Biologie und Mathematik war eine mutige Initiative. Eine Zähleinheit (Neuron) kann abhängig von den Reizen anderer künstlicher Formationen, mit denen sie verbunden ist, aktiv (1) oder inaktiv (0) sein und ein komplexes und dynamisches Netzwerk bilden. Genauer gesagt, jedes Neuron empfängt einen bestimmten Satz von Symbolen und vergleicht ihn mit einem bestimmten Schwellenwert. Wenn der Schwellenwert überschritten wird, ist der Wert 1, andernfalls 0. Die Autoren haben gezeigt, dass das zugehörige System logische Operationen wie „und“und „oder“ausführen und somit jede Berechnung durchführen kann. In der Theorie.
Dieser innovative Berechnungsansatz führte zum ersten Streit in unserer Geschichte. Die beiden Konzepte kamen in einer unvereinbaren Konfrontation zusammen, die bis heute andauert. Einerseits gibt es Anhänger neuronaler Netze und andererseits Befürworter "klassischer" Computer. Letztere basieren auf drei Prinzipien: Berechnungen erfolgen überwiegend sequentiell, Speicher und Berechnungen werden mit klar definierten Komponenten versehen, jeder Zwischenwert sollte gleich 0 oder 1 sein. Bei ersteren ist alles anders: Das Netzwerk bietet sowohl Speicher als auch Berechnungen, es gibt keine zentrale Steuerung, und Zwischenwerte sind zulässig.
Das "Perceptron" hat auch die Fähigkeit zu lernen, beispielsweise ein Muster zu erkennen oder Signale zu klassifizieren. So korrigiert der Schütze das Visier. Wenn die Kugel nach rechts geht, bewegt sie den Lauf nach links. Auf der Ebene der künstlichen Neuronen bedeutet dies, dass diejenigen, die nach rechts ziehen, zugunsten derjenigen, die nach links ziehen, geschwächt werden und Sie das Ziel treffen können. Alles, was bleibt, ist, dieses Gewirr von Neuronen zu erzeugen und einen Weg zu finden, sie zu verbinden.
Wie dem auch sei, die Begeisterung ließ 1968 mit der Veröffentlichung des Buches Perceptrons von Seymour Papert und Marvin Minsky erheblich nach. Darin zeigten sie, dass Sie mit der Struktur von Perzeptronen nur die einfachsten Probleme lösen können. Es war der erste Winter der künstlichen Intelligenz, dessen erster Frühling, wie wir zugeben müssen, nicht viel Früchte trug. Und der Wind wehte von nirgendwoher: Marvin Minsky stand an den Ursprüngen der Entstehung des Konzepts der "künstlichen Intelligenz" im Jahr 1955.
KI und KI kollidieren
Am 31. August dieses Jahres schickten sie und ihr Kollege John McCarthy ein Dutzend Menschen, die sie einluden, im nächsten Sommer an einer zweimonatigen Arbeit über das damals erste Konzept der künstlichen Intelligenz am Dartmouth College teilzunehmen. Warren McCulloch und Claude Shannon, der Vater der Informatik und der Telekommunikationstheorie, waren anwesend. Er brachte Minsky und McCarthy ins Bell-Labor, aus dem anschließend Transistoren und Laser hervorgingen. Darüber hinaus wurden sie in den 1980er Jahren zu einem der Zentren der Wiederbelebung neuronaler Netze.
Parallel dazu wurden zwei neue Bewegungen gebildet und die Stanford University wurde ihr Schlachtfeld. Einerseits stellte er das Akronym für KI, "künstliche Intelligenz", in einem anderen Verständnis zur Schau als neuronale Netze, das von John McCarthy verteidigt wurde (er verließ das Massachusetts Institute of Technology und gründete sein Labor in Stanford). Auf der anderen Seite gibt es die Benutzeroberfläche "Enhanced Intelligence", die den neuen Ansatz von Douglas Engelbart widerspiegelt. Er wurde 1957 vom Stanford Research Institute eingestellt (1946 von einer unabhängigen Institution gegründet, die mit dem privaten Sektor interagierte).
Douglas Engelbart hatte einen schwierigen Weg hinter sich. Er war Techniker und beschäftigte sich während des Zweiten Weltkriegs mit Radar, nahm dann aber sein Studium wieder auf und verteidigte seine These. Bevor er zu Stanford kam, gründete er sogar eine eigene Firma, die jedoch nur zwei Jahre dauerte. An einem neuen Ort begann er, seine Vision der Verbesserung der menschlichen Fähigkeiten umzusetzen. Er sagte, er habe eine klare Vorstellung davon, wie „Kollegen in verschiedenen Räumen an ähnlichen Arbeitsplätzen sitzen, die mit demselben Informationssystem verbunden sind und eng miteinander interagieren und Daten austauschen können“, sagt der Soziologe Thierry Bardini.
Diese Vision wurde im Dezember 1968, zehn Jahre nach der Einführung von Perceptron, während einer Demonstration des oNLine-Systems mit einem Texteditor auf dem Bildschirm, Hyperlinks zu Dokumenten, Grafiken und einer Maus in die Praxis umgesetzt. Douglas Engelbart war ein Visionär, schaute aber wahrscheinlich zu weit in die Zukunft, um sich wirklich bekannt zu machen.
Januar 1984, der erste Macintosh
John McCarthy wiederum nannte dieses System unnötig "diktatorisch", weil es einen speziellen Ansatz für die Textstrukturierung auferlegte. Dieser mutige Wissenschaftler, der wie Engelbart von der amerikanischen Armee finanziert wurde, präsentierte sein eigenes symbolisches Konzept der künstlichen Intelligenz. Dabei stützte er sich auf LISP, eine der ersten Programmiersprachen, die er entwickelte. Die Idee war, den Denkprozess mit einer logischen Kette von Regeln und Symbolen nachzuahmen und dadurch einen Gedanken oder zumindest eine kognitive Funktion zu bilden. Dies hat nichts mit Netzwerken unabhängiger Neuronen zu tun, die lernen können, aber ihre Wahl nicht erklären können. Abgesehen von der Robo-Hand, die den Schlag ausschüttete und alle durch das Umwerfen der Brille amüsierte, war der neue Ansatz in Bezug auf sogenannte "Expertensysteme" recht erfolgreich. Durch Regelketten konnten Maschinen Daten in einer Vielzahl von Bereichen analysieren, sei es Finanzen, Medizin, Fertigung oder Übersetzung.
1970 gab ein Kollege von Minsky gegenüber dem Life Magazine folgende Erklärung ab: „In acht Jahren werden wir eine Maschine mit der Intelligenz eines Durchschnittsmenschen haben. Das heißt, eine Maschine, die Shakespeare lesen, das Öl in einem Auto wechseln, scherzen, kämpfen kann."
Der Sieg des symbolischen Ansatzes
Anscheinend mag künstliche Intelligenz Prophezeiungen nicht. 1973 wurde in England ein Bericht veröffentlicht, der heiße Köpfe erschreckte: „Die meisten Wissenschaftler, die sich mit künstlicher Intelligenz und verwandten Bereichen befassen, geben zu, dass sie von dem, was in den letzten 25 Jahren erreicht wurde, enttäuscht sind. (…) In keinem der Lager haben die bisher gemachten Entdeckungen die versprochenen Ergebnisse erbracht."
Die folgenden Jahre haben diese Diagnose bestätigt. In den 1980er Jahren gingen KI-Unternehmen bankrott oder wechselten die Felder. Das McCarthy-Laborgebäude wurde 1986 abgerissen.
Douglas Engelbart hat gewonnen. Im Januar 1984 veröffentlichte Apple seinen ersten Macintosh, mit dem die meisten Ideen des Ingenieurs in die Praxis umgesetzt wurden.
Der Sieg ging also nicht an die künstliche Intelligenz, von der Minsky und McCarthy träumten, sondern an den gesteigerten Intellekt von Engelbart. All dies hat zur Entwicklung effizienter Personal Computer geführt. Und künstliche Intelligenz hat eine Sackgasse erreicht. Die Symbolik erwies sich als stärker als neuronale Netze. Trotzdem endet unsere Geschichte nicht dort und sie werden sich immer noch selbst erklären.
David Larousserie