Es ist mittlerweile fast 3 1/2 Jahre her, dass Google mit der Nahfeld-Radartechnologie Soli eine neue Möglichkeit der Eingabe präsentiert hat, schon bald könnte man sie in Geräten sehen.

Manch einer wird sich noch an die Google I/O von 2015 erinnern, auf der Google eine alternative Eingabemethode gezeigt hatte, die auf die physische Berührung eines Geräts verzichtet und statt dessen Gesten und Bewegungen über dem entsprechenden Smartphone oder der Smartwatch „schwebend“ realisiert.

Unter dem Namen Project Soli hat man eine energiearme Radartechnologie eingesetzt, die über einen kleinen Emitter/Receiver in einem Gerät ein bestimmtes Areal in der Luft darüber scannt, bzw. erkennt und durch Veränderungen unterschiedliche Gesten erkennen kann.

Seit der Vorstellung vor rund 3 1/2 Jahren hatte man aber nur wenig über das Team und dessen Arbeit gehört. Vor einiger Zeit hatte man einen Prototypen einer Smartwatch gezeigt, die die Technologie nutzt, um die Bedieneroberfläche zu steuern. Sonst war es ruhig geblieben.


Jetzt hat Google einen wichtigen Schritt in Hinblick auf Project Soli absolvieren können: die Zertifizierung durch die FCC.

Bis zuletzt hatte die Behörde die Freigabe der Radartechnik nicht erteilt, da Bedenken in Bezug auf die Stärke der verwendeten Strahlung bestanden (nicht zuletzt durch Einwände etwa von Facebook). Inzwischen hat Google hatte die Spezifikationen angepasst und Ende des vergangenen Jahres die Freigabe erhalten, die Technik auch tatsächlich außerhalb von Laboren und Prototypen einzusetzen.

Mit dieser Art der Eingabe ergeben sich für diverse Geräte völlig neue Möglichkeiten; während einige Hersteller bereits über etwa Infrarotsensoren auf der Front von Smartphones die Möglichkeit geboten haben, das Gerät ohne Berührung, sondern nur durch ein Winken oberhalb des Smartphones kurzzeitig zu wecken, um etwa Benachrichtigungen anzuzeigen, kann durch den Einsatz von Project Soli in Form eines kleinen Chips beispielsweise die Eingabe auf einer Smartwatch vollkommen verändert werden. Kein Blockieren des Displays durch den dicken Finger, sondern eine schwebende Hand über der Uhr, die durch Dreh- und Neigebewegungen die Oberfläche navigiert. Ziemlich spannend, wie ich finde.

Entwicklung der Prototypen (unten rechts der finale Chip in einer Box)

Zwar ist die Freigabe durch die FCC kein Garant dafür, dass wir diese Technologie bereits in einem Pixel 4 zu sehen bekommen oder man im Herbst die lang gemunkelte Pixel Watch bringt, die dann einen solchen Chip beherbergt, aber jetzt hat Google das grüne Licht, die Technik auch in consumer-Geräten einzusetzen und damit einen wichtigen Schritt auf dem Weg zu einem ersten finalen Produkt gemacht.


Quelle: reuters, google via 9to5google

Von Michael

Kommentar verfassen

%d Bloggern gefällt das: