Googles neue offline-Spracherkennung ist besser, als das online-Gegenstück

Google hat ein neues offline-Spracherkennungs-System geschaffen, das schneller und korrekter sein soll als die bisherige Lösung, bei der Sprachbefehle online auf Servern analysiert werden. Der Clou dabei: man hat es bereits erfolgreich auf einem Gerät getestet!

 

Sagen wir es, wie es ist: Googles offline-Spracherkennung ist miserabel. Ja, man kann sich das Sprachpaket “Deutsch” herunterladen und diese kann dann theoretisch zur Unterstützung vom Smartphone oder Tablet genutzt werden – aber leider tut es das nur dann, wenn man tatsächlich komplett offline ist. Solange man eventuell noch eine GPRS-Verbindung hat, wird das Gerät versuchen, die Sprachdaten zur Analyse an einen Google-Server zu senden. Und dass das dann in die Hose geht, kann sich wohl jeder selber denken.

Die Techniker und Entwickler bei Google haben deshalb daran gearbeitet, ein System zu schaffen, dass auf dem Smartphone selber läuft, lediglich 20,3MB groß ist und dabei bis zu 7 mal schneller als ein mit dem Internet verbundenes System ist. Die Fehlerquote liegt laut eines abstracts bei nur 13,5%. Das beste daran ist aber die Tatsache, dass man die erste Version bereits erfolgreich auf einem Nexus 5 testen konnte. Das heißt, dass die neue Spracherkennung selbst auf einem 2 Jahre alten Smartphone noch gut funktioniert!

Für die Testphase hat man das System mit rund 3 Millionen anonymen Sprach-Beispielen aus der Google Suche gefüttert (entspricht etwa 2.000 Stunden). Um die Genauigkeit zu testen, wurden von jedem Beispiel zusätzlich je 20 Versionen mit Störgeräuschen aus YouTube-Videos versehen und der Spracherkennung ebenfalls zugeführt. Vor dem Hintergrund scheinen 13,5% Fehlerquote tatsächlich noch kleiner.

 

Besonders spannend: Das neue Spracherkennungssystem ist bereits erfolgreich getestet. Das heißt, dass es theoretisch schon ziemlich Bald zum Einsatz auf Geräten kommen kann. Vielleicht sieht man schon zur I/O eine Demonstration der offline-Spracherkennung – vielleicht wird es schon mit N implementiert?

Aber viel interessanter ist die Tatsache, dass die neue Spracherkennung so klein ist und so wenig Ressourcen benötigt. Das macht sie höchst interessant für etwa Wearables! Und das wäre für Android Wear (oder Google Glass…?) auch bitter nötig, denn gerade auf den Smartwatches sind die Sprachbefehle doch ziemlich beschränkt.

 

 


Quelle: arvix, zdnet via 9to5google

 

Kommentar verfassen