Der MIT-Chip Reduzierte Den Stromverbrauch Des Neuronalen Netzwerks Um 95% - Alternative Ansicht

Der MIT-Chip Reduzierte Den Stromverbrauch Des Neuronalen Netzwerks Um 95% - Alternative Ansicht
Der MIT-Chip Reduzierte Den Stromverbrauch Des Neuronalen Netzwerks Um 95% - Alternative Ansicht

Video: Der MIT-Chip Reduzierte Den Stromverbrauch Des Neuronalen Netzwerks Um 95% - Alternative Ansicht

Video: Der MIT-Chip Reduzierte Den Stromverbrauch Des Neuronalen Netzwerks Um 95% - Alternative Ansicht
Video: Neuronale Netze [017] - Backpropagation 2024, April
Anonim

Neuronale Netze sind mächtig, aber sehr unersättlich. Ingenieure des Massachusetts Institute of Technology (MIT) haben es geschafft, einen neuen Chip zu entwickeln, der den Stromverbrauch des neuronalen Netzwerks um 95% senkt und theoretisch sogar auf mobilen Geräten mit Batterien arbeiten kann. Smartphones werden heutzutage immer intelligenter und bieten mehr KI-gestützte Dienste wie virtuelle Assistenten und Echtzeitübersetzungen. Normalerweise verarbeiten neuronale Netze Daten für diese Dienste in der Cloud, und Smartphones übertragen nur Daten hin und her.

Dies ist nicht ideal, da ein dicker Kommunikationskanal erforderlich ist und davon ausgegangen wird, dass vertrauliche Daten außerhalb der Reichweite des Benutzers übertragen und gespeichert werden. Die enormen Energiemengen, die für die Stromversorgung neuronaler Netze mit GPUs erforderlich sind, können jedoch nicht in einem Gerät bereitgestellt werden, das mit einer kleinen Batterie betrieben wird.

MIT-Ingenieure haben einen Chip entwickelt, mit dem dieser Stromverbrauch um 95% gesenkt werden kann. Der Chip reduziert die Notwendigkeit, Daten zwischen dem Speicher des Chips und den Prozessoren hin und her zu übertragen, drastisch.

Neuronale Netze bestehen aus Tausenden miteinander verbundener künstlicher Neuronen, die in Schichten angeordnet sind. Jedes Neuron empfängt Eingaben von mehreren Neuronen in der darunter liegenden Schicht, und wenn die kombinierte Eingabe einen bestimmten Schwellenwert überschreitet, überträgt es das Ergebnis an mehrere darüber liegende Neuronen. Die Stärke der Verbindung zwischen Neuronen wird durch das Gewicht bestimmt, das während des Trainingsprozesses festgelegt wird.

Dies bedeutet, dass der Chip für jedes Neuron die Eingabe für eine bestimmte Verbindung und das Gewicht der Verbindung aus dem Speicher extrahieren, multiplizieren, das Ergebnis speichern und dann den Vorgang für jede Eingabe wiederholen muss. Hier und da werden viele Daten übertragen, und es wird viel Energie verschwendet.

Der neue MIT-Chip eliminiert dies, indem alle parallelen Eingänge im Speicher mithilfe einer analogen Schaltung berechnet werden. Dies reduziert die Datenmenge, die überholt werden muss, erheblich und führt zu erheblichen Energieeinsparungen.

Dieser Ansatz erfordert, dass das Gewicht der Verbindungen eher binär als ein Bereich ist. Frühere theoretische Arbeiten haben jedoch gezeigt, dass dies die Genauigkeit nicht wesentlich beeinflusst, und die Wissenschaftler stellten fest, dass sich die Ergebnisse des Chips um 2-3% von der üblichen Version des neuronalen Netzbetriebs unterschieden auf einem Standardcomputer.

Dies ist nicht das erste Mal, dass Wissenschaftler Chips entwickeln, die Prozesse im Speicher verarbeiten und so den Stromverbrauch eines neuronalen Netzwerks senken. Dies ist jedoch das erste Mal, dass dieser Ansatz zum Betrieb eines leistungsstarken neuronalen Netzwerks verwendet wird, das für seine Bildverarbeitung bekannt ist.

Werbevideo:

"Die Ergebnisse zeigen beeindruckende Spezifikationen für die energieeffiziente Implementierung von Walzvorgängen in einem Speicherarray", sagte Dario Gil, Vice President für künstliche Intelligenz bei IBM.

"Dies eröffnet definitiv Möglichkeiten, in Zukunft komplexere neuronale Faltungsnetze zu verwenden, um Bilder und Videos im Internet der Dinge zu klassifizieren."

Und das ist nicht nur für F & E-Gruppen interessant. Der Wunsch, KI auf Geräten wie Smartphones, Haushaltsgeräten und allen Arten von IoT-Geräten zu installieren, treibt viele im Silicon Valley in Richtung Chips mit geringem Stromverbrauch.

Apple hat seine Neural Engine bereits in das iPhone X integriert, um beispielsweise die Gesichtserkennungstechnologie zu betreiben, und Amazon soll angeblich eigene KI-Chips für die nächste Generation von Echo-Digitalassistenten entwickeln.

Auch große Unternehmen und Chiphersteller setzen zunehmend auf maschinelles Lernen, was sie dazu zwingt, ihre Geräte noch energieeffizienter zu gestalten. Anfang dieses Jahres stellte ARM zwei neue Chips vor: den Arm Machine Learning-Prozessor, der allgemeine KI-Aufgaben von der Übersetzung bis zur Gesichtserkennung übernimmt, und den Arm Object Detection-Prozessor, der beispielsweise Gesichter in Bildern erkennt.

Der neueste mobile Chip von Qualcomm, der Snapdragon 845, verfügt über eine GPU und ist stark AI-gesteuert. Das Unternehmen stellte außerdem den Snapdragon 820E vor, der in Drohnen, Robotern und Industriegeräten eingesetzt werden soll.

Mit Blick auf die Zukunft entwickeln IBM und Intel neuromorphe Chips mit einer vom menschlichen Gehirn inspirierten Architektur und einer unglaublichen Energieeffizienz. Dies könnte es TrueNorth (IBM) und Loihi (Intel) theoretisch ermöglichen, leistungsfähiges maschinelles Lernen mit nur einem Bruchteil der Leistung herkömmlicher Chips durchzuführen. Diese Projekte sind jedoch noch sehr experimentell.

Es wird sehr schwierig sein, die Chips, die neuronalen Netzen Leben einhauchen, zu zwingen, Batteriestrom zu sparen. Bei dem gegenwärtigen Innovationstempo scheint dies jedoch „sehr schwierig“zu sein.

Ilya Khel

Empfohlen: