Project Soli: Gestensteuerung auf höchstem Niveau

Google ATAP (Advanced Research And Projects) ist eines der Team, das neue Techniken einfach möglich macht. Aus diesem Team stammen unter anderem Project Tango, ein Tablet, das sehr einfach 3D-Modelle der Umgebung erstellt oder auch Project Ara, ein modulares Smartphone. Eines der Projekte an dem dort aktuell gearbeitet wird, ist Project Soli und keiner versteht so recht, wieso man diese Technologie nicht zu einem Teil der Keynote gemacht hat – denn hier fallen Kinnladen.

project soli ani_2

 

Project Soli ist ein klitzekleiner Chip, der es ermöglicht, (Hand-) Gesten so akkurat in Eingaben umzusetzen, wie es kein Kamera-System bisher konnte. Das liegt vor allem daran, dass keine Kameras genutzt werden – stattdessen arbeitet man hier mit Radarwellen, die auch kleinste Änderungen erkennen können. Dahinter steht natürlich einiges an Code, der bestimmte Bewegungen in klare Aktionen umsetzt; wie eben ein Klicken oder Scrollen.

Dieser Chip kann dabei auch hinter anderen Oberflächen verborgen sein, dadurch könnte er rein theoretisch irgendwann hinter einem Touchscreen liegen und man könnte in bester Minority Report Manier das Gerät mit Wischbewegungen und kleinen Fingerakrobatiken in der Luft steuern. Aber neben den im folgenen Video dargestellten Anwendungsbeispielen – wie unter anderem einer Smartwatch (wie geil ist das denn bitte?) – könnte ich mir so ein System auch in Autos vorstellen: kein Tippen auf den Touchscreen mehr, sondern schlicht ein Wisch in der Luft über dem Armaturenbrett und das nächste Lied läuft, der Anruf wird angenommen oder mit einer Drehbewegung wird die Lautstärke reguliert…

 

Das ist meiner Meinung nach mal zukunftsweisend und ich kann mich nur wiederholen: warum Google? Warum habt ihr das nicht auf der Keynote gezeigt?

Kommentar verfassen

%d Bloggern gefällt das: