Meine 3 Highlights der Google I/O Keynote


Zum Zeitpunkt, bei dem dieser Beitrag online geht, werden die Kollegen von The Verge wohl schon ihren ~10 minütigen Supercut der etwa zwei Stunden langen Präsentation angefertigt haben und da der wohl schneller runter geht, als sich über zig Beiträge zusammen zu lesen, was es neues zu sehen gab, will ich hier meine 3 persönlichen Highlights (in keiner wertenden Reihenfolge) nennen. Den Supercut werde ich euch natürlich auch nahelegen, sobald er verfügbar ist.

 

Android P: neue Optik und neue Features

In einem passenden Video hat The Verge eigentlich schon die wichtigsten Sachen zusammengefasst. Android P bringt aber einige neue Funktionen, die zumindest vielversprechend aussehen.

Die neue Version 9.0 (man sah auf jedem Demo-Screen die Uhrzeit 09:00) wird unter anderem eine neue, adaptive Helligkeit bieten. Da Google gehört hat, das Geräte häufig nicht hell oder dunkel genug schalten oder einfach für das persönliche Empfinden ein bisschen mehr oder ein bisschen weniger strahlen könnten, wird Android P euer Verhalten beim Nachjustieren der Helligkeit zur Kenntnis nehmen und diese mehr auf euch einpassen.

Ebenfalls neu ist das sogennante Dashboard, bei dem getracked wird, was ihr wie oft benutzt habt, wie oft ihr euer Gerät entsperrt habt, wie viele Benachrichtigungen eingegangen sind und von welchen Apps diese kamen. Das soll euch einen besseren Überblick darüber geben, was euch dazu treibt euren Hosentaschencomputer 5000 Mal am am Tag in die Hand zu nehmen und diese Zeit effektiv zu verringern. Denn „Wellbeing“ ist Google mit der neuen Version wichtig und man sollte das Gerät zwar nutzen, um relevante Informationen und Hilfen zu erhalten, aber sich nicht zig Mal ablenken lassen müssen.

Hier mit rein zählt auch der neue Do Not Disturb Modus, der jetzt komplett alle Benachrichtigungen ausschaltet – nicht nur die akustischen Signale und die Vibration, sondern auch die optischen Signale, wie im Ambient Display und die Benachrichtigungen in der Leiste. Dreht ihr euer Smartphone auf die Display-Seite, werdet ihr (bis auf Notfallkontakte) von absolut nichts mehr abgelenkt.

Gleichzeitig erhält das Betriebssystem einen neuen Akku Manager, der proaktiv Apps davon abhalten soll, den Prozessor zu belasten und das Smartphone aus den Tiefschlafphasen zu reißen, wenn es eigentlich gar nicht notwendig ist. Hier greift machine learning auf dem Gerät selber, was analysiert, wann welche Applikation am ehesten verwendet werden. Wenn ihre Zeit nicht gekommen ist, dann erhalten sie auch nicht Zugriff auf energiekritische Ressourcen.

Natürlich wurde auch die Optik angepasst. Das hatten wir bereits im Leak von heute Vormittag gesehen und man hat sich für den Homescreen, die Navigation und das Multitasking etwas neues überlegt. Zugegeben, man hat sich nicht unwesentlich von iOS inspirieren lassen und das gefällt nicht unbedingt allen. Lukas von Tech Breakdown etwa hat die Beta auf seinem Pixel installiert und ist kein Fan der neuen Kombination aus Navigationsleiste, Gesten und Multitasking. Allerdings ist dies auch (vorerst) nur eine Option und man kann nach Belieben zu den klassischen, bzw. bekannten Ansichten zurückkehren, bzw. muss die neue Optik erst einmal aktivieren.

 

Google Maps: eine neue Navigation kurz vor Augmented Reality

Ein einvernehmliches Lachen ging durch die rund 7000 Zuschauer vor Ort und ich glaube, dass auch zuhause vor dem Stream viele zustimmend nickten, als die Mitarbeiterin von Google das Setting beschrieb, wie man bei der Navigation zu Fuß immer erst einmal prüft, ob man denn jetzt gerade richtig herum steht und in die richtige Richtung geht. Ein kleiner Witz zur Auflockerung, der die Einleitung zu einer der bemerkenswertesten neuen Funktionen in einem der Google Dienste war.

Google Maps erhält eine Integration von Daten aus Google Streetview und den von Nutzern aufgenommenen Bildern der jeweiligen Umgebung, um durch eine Kombination aus GPS und VPS (Visual Positioning System) mithilfe der Kamera des Smartphones einen Hybriden aus Live-Bild, Streetview-Bild und der Vogelperspektive der Navigation zu schaffen, die optischen Ankerpunkte nutzt, um noch besser bestimmen zu können, wo ihr gerade seid und in welche Richtung ihr guckt. In dieser hybriden Ansicht wird dann fast wie in AR die Richtung in die ihr gehen sollt über das Bild der Straße gelegt – kein Vertun also mehr bei der Frage, ob das jetzt schon die nächste Straße ist oder ob es doch erst die nächste ist. Wirklich bemerkenswert.

Man hat es aber nicht nur dabei belassen, sondern noch ein kleines Gimmick oben drauf gelegt: in diese halbe AR-Welt kann man sich noch einen kleinen polygonen Wegbegleiter einbauen lassen (in diesem Fall ein Fuchs), der euch den Weg zeigt. Total unnötig, aber mega cool.

 

Google Assistant: dagegen stinkt jede Siri und Alexa sowas von ab

Wow. Einfach nur wow. Was Google in den letzten Jahren mit dem Google Assistant aus dem Boden gestampft hat, ist unvergleichlich und gegen den smarten Assistenten aus Mountain View wirkt Apples Pendant wirklich wie ein Kind, das gerade gelernt hat, wie man mit den Fingern rechnet. In den Demos zum Assistant hat Google so viele Features gezeigt, dass man sich als aktiver Nutzer nur fragt, warum diese bitte nicht sofort auf allen Geräten verfügbar gemacht werden.

In Zukunft wird man nicht jedes Mal ein „okay Google“ oder „hey Google“ brauchen, um eine Konversation mit dem Assistant zu führen. Einmal angesprochen (hierfür ist das Hotword notwendig) kann man nach der Antwort auf die Frage oder die Aufgabe einfach weiter reden und der Assistant (im Smarpthone oder dem Smart Home Gerät) erkennt, dass ihr noch mit ihm redet und eben nicht mit jemand anderem im Raum. Und das nur anhand des Kontextes und der Art der Fragen. Das ist der wohl größte Schritt in Sachen kontinuierlicher Konversation bei allen Sprachassistenten überhaupt.

Außerdem werden Kombination aus Befehlen bald verfügbar gemacht, die es erlauben, eine Sache zu fragen und eine zweite zu beauftragen oder umgekehrt oder beides. Ein Satz zum Assistant könnte dann in etwa „was habe ich heute auf dem Terminplan und schalte die Schreibtischlampe ein“ lauten. Der Assistant erkennt durch das verknüpfende „und“ und anhand des Kontextes, dass es sich um zwei unterschiedliche Aufforderungen handelt, kann aber auch zusammengesetzte Sätze, die durch ein „und“ verknüpft sind unterscheiden und macht daraus nicht automatisch zwei Aufforderungen. Ziemlich bemerkenswert und gleichzeitig ein Feature, das ich gerne jetzt schon nutzen würde. Genau wie die fortgeführte Konversation.

Als Familienvater empfand ich auch „pretty please“ als sehr coole Idee. Hier wird für über Family Link verknüpfte Konten mit Augenmerk auf den Nachwuchs der Fragende belohnt, wenn er die Frage mit einem „please“ formuliert. Der Assisstant wird diese beantworten und zusätzlich lobend daraufhinweisen, dass man höflich gefragt hat. Google hat sich zu diesem Feature entschieden, weil es Stimmen gab, die befürchteten, dass Kinder einen herrscherischen Ton lernen würden, wenn sie erleben, wie man nur Aufforderungen an den Assistant stellt. Wie gesagt, ich als Vater finde das total genial und hoffe, dass wir auch in Deutschland zeitnah diese Funktion erhalten.

 

Und dann gab es da noch Google Duplex. Das ist eigentlich der geheime vierte Punkt, den ich als eine der bemerkenswertesten Demos überhaupt sehe. Auf der Bühne hat man Aufzeichnungen von Gesprächen gezeigt, die als Anruf vom Google Assistant geführt wurden. Hier hat der Assistant bei Läden angerufen, um Termine für einen Haarschnitt und ein Abendessen zu machen. Also ein Computer hat im Auftrag eines Menschen einen anderen Menschen angerufen und mithilfe der Informationen wann, wo, wie viele einen Termin gemacht. Und das ganze war so natürlich, dass man als Zuschauer nur mot offenem Mund staunen konnte. Spätestens hier war klar, wer das Rennen um einen tatsächlichen Assistenten für das tagtägliche Arbeiten gewonnen hat. Dabei will Google diese Funktion nicht nur nutzen, um uns den lästigen Anruf beim Italiener um die Ecke zu ersparen und nicht selber einen Tisch reservieren zu müssen (wobei man sich dabei wahrscheinlich fühlt, wie Onkel Phil, der Geoffrey einen Tisch reservieren lässt), sondern will diese Konversationsfähigkeiten auch nutzen, um proaktiv für Lokalitäten in Erfahrung zu bringen, ob sie etwa an Feiertagen geöffnet haben und diese Informationen in Google Maps einfließen lassen. Einfach noch einmal weitergedacht.

 

Fazit / Haken

Ich empfand (bis auf die Weymo-Episode), dass die Keynote dieses Jahr wie im Flug vergangen ist und sich die fast 2 Stunden keineswegs wie solche angefühlt haben. Nicht zuletzt, weil viele Funkionen und Features gezeigt wurden, die einfach wegweisend waren. Erwähnung gefunden haben hier nicht die neuen Features in Google Lens, die demnächst auf mehr Geräte und direkt in die Google Kamera App kommen sollen, Googles verbesserte Spracherkennung, sowie die neuen Stimmen für den Assistant (auf englisch) oder die sich fast von selber schreibende Email in Gmail, sowie coole neue Funktionen in Google Fotos.

Aber alles gezeigte hat eines gemein: bis auf die Features der Developer Preview von Android P, kommen alle gezeigten neuen Möglichkeiten, Funktionen und Spielereien erst irgendwann im Laufe diesen Jahres oder Anfang nächsten Jahres. Und dann auch absehbar erst einmal nur in den USA oder wenigstens in englischer Sprache. Gerade bei den Funktionen des Google Assistant ist mit einem verspäteten Start in Deutschland zu rechnen. Und so sehr ich ob all dieser Themen gehyped bin, ist wohl eine beträchtliche Menge an Geduld angesagt.

 

Kommentar verfassen

%d Bloggern gefällt das: