Wissenschaftler Haben Eine Selbstlernende KI Entwickelt, Die Alle Spiele Spielen Kann - Alternative Ansicht

Inhaltsverzeichnis:

Wissenschaftler Haben Eine Selbstlernende KI Entwickelt, Die Alle Spiele Spielen Kann - Alternative Ansicht
Wissenschaftler Haben Eine Selbstlernende KI Entwickelt, Die Alle Spiele Spielen Kann - Alternative Ansicht

Video: Wissenschaftler Haben Eine Selbstlernende KI Entwickelt, Die Alle Spiele Spielen Kann - Alternative Ansicht

Video: Wissenschaftler Haben Eine Selbstlernende KI Entwickelt, Die Alle Spiele Spielen Kann - Alternative Ansicht
Video: Künstliche Intelligenz vs. Machine Learning vs. Deep Learning | #KI 2024, April
Anonim

Die Entwickler des revolutionären selbstlernenden künstlichen Intelligenzsystems AlphaGo Zero haben die Entwicklung einer neuen Version dieser Maschine angekündigt, die unabhängig voneinander lernen kann, jedes Brettspiel zu spielen und eine Person zu schlagen. Seine Beschreibung wurde in der Zeitschrift Science vorgestellt.

Tiefen des Geistes

Das AlphaGo AI-System wurde Ende 2014 von David Silver und Kollegen entwickelt und seine Arbeit wurde an Europameister Fan Hui "getestet", der alle fünf Spiele gegen die Maschine verlor. Im März 2016 besiegte AlphaGo Go-Weltmeister Lee Sedol in einer Serie von fünf Spielen, von denen nur eines mit einem menschlichen Sieg endete.

Silver und seine Kollegen konnten diese Erfolge erzielen, indem sie ihre KI auf der Grundlage von nicht einem, sondern zwei neuronalen Netzen gleichzeitig aufbauten - speziellen Algorithmen, die die Arbeit von Neuronenketten im menschlichen Gehirn nachahmen. Einer von ihnen ist für die Bewertung der aktuellen Position im Board verantwortlich, und der zweite verwendet die vom ersten Netzwerk erstellten Analyseergebnisse, um den nächsten Schritt auszuwählen.

Der nächste logische Schritt bei der Entwicklung von AlphaGo war die Beseitigung des Hauptnachteils aller vorhandenen neuronalen Netze und künstlichen Intelligenzsysteme - die Notwendigkeit, ihnen beizubringen, was sie tun sollten, indem sie riesige Datenarchive verwenden, die manuell von einer Person verarbeitet wurden, oder unter direkter Beteiligung einer Person, wie dies in den ersten Phasen der Fall war Entwicklung von AlphaGo.

Silver und sein Team lösten dieses Problem, indem sie ein grundlegend neues neuronales Netzwerk auf der Grundlage der sogenannten Verstärkungslernalgorithmen schufen. Dieses neuronale Netzwerk, im Gegensatz zu seinem herausragenden Vorgänger, der ursprünglich in Spielen mit Freiwilligen trainiert wurde und einige eingebaute primitive Spielstrategien hatte, begann seine Arbeit als absoluter Anfänger ohne Wissensbasis.

Mit anderen Worten, sie kannte nur die Regeln des Go-Spiels, die Anfangsbedingungen und die Siegbedingungen, und dann lernte der Computer unabhängig voneinander, diese alte chinesische Strategie zu spielen, mit sich selbst zu spielen und durch Versuch und Irrtum zu handeln. Die einzige Einschränkung in ihrer Arbeit war die maximale Zeit, um über den Umzug nachzudenken - es waren ungefähr 0,4 Sekunden.

Werbevideo:

Nach jedem solchen Spiel analysierte das KI-System alle seine Bewegungen und erinnerte sich an diejenigen, die eine seiner "Hälften" dem Sieg näher gebracht hatten, und trat in eine Art "schwarze Liste" der Schritte ein, die offen gesagt verloren hatten. Mit diesen Daten baute sich das neuronale Netzwerk wieder auf und erreichte allmählich das Niveau, das die erste Version von AlphaGo vor der Reihe von Spielen mit Lee Sedol erreichte.

Durch die Umstellung auf selbstlernende Algorithmen konnte AlphaGo Zero nicht nur seinen Vorgänger übertreffen und mit 100: 0 schlagen, sondern auch viele andere Aspekte seiner Arbeit verbessern. Insbesondere dauerte der Trainingsprozess nur drei Tage und ungefähr fünf Millionen Spiele, was eine Größenordnung weniger war als die Anforderungen der ersten Version von AI.

Der Weg zur Exzellenz

Der erfolgreiche Abschluss von Experimenten mit AlphaGo Zero veranlasste Silver und sein Team zu der Überlegung, ob ein ähnliches neuronales Netzwerk verwendet werden könnte, um die Krone des Champions in anderen Arten von Strategie- und Brettspielen zu gewinnen.

Zu diesem Zweck bauten die Wissenschaftler ein weiteres neues Element in AlphaGo Zero ein - heuristische Algorithmen für die zufällige Suche nach Lösungen sowie Code, der das Vorhandensein eines Unentschieden in einigen Spielen berücksichtigte. Darüber hinaus verbesserte die neue Version des Alpha ihre Struktur kontinuierlich, anstatt sie schrittweise wie ihre Vorgängerin zu aktualisieren.

Diese relativ einfachen Änderungen haben, wie weitere Experimente zeigten, die Geschwindigkeit des Selbstlernens dieses künstlichen Intelligenzsystems erheblich erhöht und es zu einer universellen Maschine gemacht, die alle Arten von Tischstrategien spielen kann.

Wissenschaftler haben seine Arbeit an drei Arten von Spielen getestet - Go, gewöhnliches Schach und ihre japanische Variante Shogi. In allen drei Fällen erreichte Silvers neue Idee in weniger als einer Million Spielen das Niveau eines Großmeisters und erreichte in nur 9 bis 12 Stunden Schachtraining und 13 Tagen Pause eine fast menschliche Selektivität bei der Auswahl möglicher Züge.

Zuvor hatte sie die fortschrittlichsten Computerprogramme geschlagen, die diese Spiele spielen - Stockfishs Algorithmus gab die vierte Stunde des AlphaZero-Trainings auf, während Elmo, der aktuelle Champion im Shogi, nur zwei Stunden dauerte. Schließlich begann die erste Version von AlphaGo nach etwa 30 Stunden seines Trainings ihrem "Enkel" nachzugeben.

Die nächsten "Opfer" von AlphaZero, wie von Wissenschaftlern festgestellt, könnten "echte" Computerspiele wie Starcraft II und Dota 2 sein. Die Teilnahme an der Meisterschaft in solchen Sportdisziplinen wird ihrer Meinung nach den Weg für selbstlernende KI ebnen, in weniger formalisierte Bereiche von Wissenschaft und Kultur einzudringen. und Technologie.

Empfohlen: