Noch schnelleres Abarbeiten von Sprachbefehlen, kontextabhängiges Verständnis und Interaktion mit bestimmten Elementen machen den Assistant direkt auf dem Smartphone zu einem noch effektiveren Helfer.
Dass Google mit dem Assistant wohl einen der effektivsten Sprach-Helfer auf Millionen von Geräten hat, hat das Unternehmen in der Vergangenheit mehrfach unter Beweis gestellt. Allerdings hat ein Punkt den Google Assistant bisher noch ein wenig gebremst: annähernd jeder Sprachbefehl muss erst online analysiert werden und entweder selber zur Verarbeitung oder das Ergebnis, bzw. die Antwort zurück an das Gerät übermittelt werden.
Auf der gestrigen Google I/O Keynote hat man allerdings den „Next Generation“ Google Assistant vorgestellt, der komplett auf dem Smartphone in der Hand des Nutzers arbeiten wird und eben nicht mehr auf mehreren Gigabyte an machine learning Models aufbaut, sondern auf lediglich rund 500MB geschrumpft wurde und damit auf dem Gerät selber und sogar komplett offline arbeiten kann.
In einer Demo hat man gezeigt, wie schnell die Verarbeitung der verschiedenen Befehle funktioniert und wie gut Applikationen angesprochen und einzelne Aktionen ausgeführt werden, was teilweise tatsächlich schneller abläuft, als die Eingabe von Hand:
Aber auch die Kontextabhängige Verarbeitung wird besser. So integriert man in der Zukunft etwa Google Duplex on the web, das erst einmal mit einer Fahrzeugreservierung zu einem geplanten business-Trip starten soll und anhand von Emails und Kalender-Einträgen erkennt, wann und anhand persönlicher Präferenzen, welches Fahrzeug gemietet werden kann.
Darüberhinaus integriert man aber auch bessere personenbezogene Interaktionen. In der Demo zeigte man etwa die Navigation zu „Mom’s house“, womit der Weg zum Haus des Familienmitglieds gemeint war und eben nicht die zig Geschäfte, wie Blumenläden, die ebenfalls „Mom’s House“ heißen. Teilt man mit dem Assistant die Informationen um das familiäre Verhältnis zu Kontakten, kann dieser erkennen, was tatsächlich gemeint ist und sogar eine Woche vor demr Geburtstag der Mutter daran erinnern, dass man Blumen bestellen wollte.
Ebenfalls neu wird der neuen driving mode vom Google Assistant sein, der analog zu Android Auto eine beschränkte Sicht auf wichtige Elemente zulässt, wie etwa den Podcast, den man morgens noch angefangen hatte zu hören, den Zugriff auf häufige und/oder favorisierte Kontakte, den Weg zur Arbeit oder zum nächsten Termin im Kalender und die Steuerung von Musikwiedergaben:
Die meisten dieser Funktionen werden in den kommenden Monaten ausgerollt, wobei nicht ganz klar gemacht wurde, ob der ‚Next Generation‘ Assistant direkt auf dem Smartphone für alle Geräte verfügbar gemacht wird, oder hardwaregebunden nur für die Pixel-Smartphones der vierten Generation sein wird. Vielleicht macht man das aber auch wie damals bei den allerersten Pixels nur zu einem zeitlich begrenzten exklusiv-Feature.
Kleine Randnotiz: besonderen Applaus erntete Google für ein Feature auf den Smart Home Geräten. Wenn ein Timer abläuft, kann man diesen in Zukunft schlicht mit einem „Stop“-Befehl beenden und muss nicht vorweg den Auslösebefehl „Okay Google“ sagen – allerdings erst einmal nur im englischsprachigen Gebraucht. Wann dieses Feature auch in deutsch ausgerollt wird, ist leider noch unbekannt.
Quelle: google