In einem Blogbeitrag sprach DeepMind, eine Tochtergesellschaft von Google, über ein Experiment zum Testen von Modellen für künstliche Intelligenz auf Verallgemeinerung und abstraktes Denken. Experten haben einen Generator entwickelt, der Fragen auf der Grundlage des Fortschrittskonzepts, der Farbeigenschaften, Formen oder Größen und ihrer Beziehungen aufwirft. Ähnliche Aufgaben finden sich in IQ-Tests für Menschen.
IQ-Testgenauigkeit
Die meisten Modelle beantworteten die Fragen mit einer Genauigkeit von 75%. Dabei fanden die Forscher eine starke Korrelation zwischen der Aufgabenleistung und der Fähigkeit, zugrunde liegende Abstraktionen zu identifizieren. Sie konnten die Effizienz steigern, indem sie Algorithmen trainierten, um ihre Antworten zu erläutern und zu zeigen, welche Beziehungen und Eigenschaften in einem bestimmten Thema berücksichtigt werden müssen.
Einige Modelle sind jedoch schlecht darin, die untersuchten Beziehungen auf neue Eigenschaften zu "übertragen", wenn sie beispielsweise trainiert hat, logische Sequenzen in Bezug auf die Farbe von Objekten zu identifizieren, und bei der Aufgabe ist es erforderlich, eine Abhängigkeit durch ihre Form festzustellen.
Das Team stellte fest, dass sich die Genauigkeit der Aufgaben auf 87% erhöhte, wenn das neuronale Netzwerk sein Wissen über Beziehungen auf eine neue Wertekombination korrekt extrapolierte. Bei falscher Extrapolation sank sie auf 32%.
Der detaillierte Fortschritt der Forschung und die Ergebnisse wurden von den Entwicklern im Artikel veröffentlicht.
Werbevideo:
Im Februar 2018 trainierten die Entwickler von Facebook AI Research auch künstliche Intelligenz, um ihre Aktionen zu erklären. Im Allgemeinen können Sie mit dieser Technik die Logik der Problemlösung verfolgen und Probleme identifizieren, die Sie daran hindern, damit umzugehen.