Künstliche Intelligenz Hat Gelernt, Sprache Unter Geräuschen - Alternative Ansicht

Künstliche Intelligenz Hat Gelernt, Sprache Unter Geräuschen - Alternative Ansicht
Künstliche Intelligenz Hat Gelernt, Sprache Unter Geräuschen - Alternative Ansicht

Video: Künstliche Intelligenz Hat Gelernt, Sprache Unter Geräuschen - Alternative Ansicht

Video: Künstliche Intelligenz Hat Gelernt, Sprache Unter Geräuschen - Alternative Ansicht
Video: Künstliche Intelligenz vs. Machine Learning vs. Deep Learning | #KI 2024, Kann
Anonim

Virtuelle Assistenten und Spracherkennungssysteme haben gelernt, zu „erkennen“, was eine Person zu ihnen sagt, und ihren Befehlen zu folgen. Für den korrekten Betrieb derselben Siri und Cortana können Fremdgeräusche jedoch ein großes Problem sein. Experten von Mitsubishi Electric können helfen, diesen technischen Fehler zu beheben. Sie haben eine neue Technologie vorgestellt, mit der die Sprache einer Person vom allgemeinen Lärm getrennt werden kann.

Die Technologie des japanischen Unternehmens heißt Deep Clustering, dessen Funktionsweise auf den Prinzipien des maschinellen Lernens basiert. Zunächst lernte die künstliche Intelligenz, die Sprache einer Person unabhängig vom allgemeinen Strom verschiedener Geräusche und Geräusche zu trennen. Das neuronale Netzwerk trennt die eingehenden Audiodaten in verschiedene Elemente und analysiert sie einzeln. Danach kann es bereits die menschliche Stimme verarbeiten. Ähnliche Arbeiten werden beobachtet, wenn zwei oder mehr Gesprächspartner „verbunden“sind.

Während einer Demonstration der Technologie eines japanischen Unternehmens konnte das System die Sprache von zwei Personen, die denselben Satz in verschiedenen Sprachen sprechen, erfolgreich in ein Mikrofon trennen. Die gesamte Verarbeitung wurde in Echtzeit durchgeführt, und die Verzögerung überschritt drei Sekunden nicht. Die Erkennungsgenauigkeit betrug 90 Prozent, und als drei Personen anfingen, in das Mikrofon zu sprechen, sank der Prozentsatz der "Treffer" auf 80, was ebenfalls ein gutes Ergebnis ist. Laut den Autoren des Projekts Anthony Vetro und Yohei Okato,

„Im Gegensatz zur Trennung von Sprache und Hintergrundgeräuschen ist die Trennung der Sprache einer Person vom„ Sprachgeräusch “von Personen, die gleichzeitig sprechen, eine sehr schwierige Aufgabe, da die Geräusche der Stimme verschiedener Personen viele Besonderheiten aufweisen. In den meisten Systemen wird das Problem der Sprachtrennung durch die Installation von zwei oder mehr Mikrofonen gelöst. Bei Verwendung nur eines Mikrofons kann jedoch nur künstliche Intelligenz die Aufgabe der Sprachtrennung übernehmen. Diese Technologie kann überall dort eingesetzt werden, wo eine hohe Genauigkeit der Sprachnachrichtenerkennung erforderlich ist. Zum Beispiel in Sprachsteuerungssystemen für Autos, Aufzüge, Haushalte und andere elektronische Geräte."

VLADIMIR KUZNETSOV

Empfohlen: