Google ist bekannt dafür, mal etwas sinnvollere und mal etwas …nennen wir es mal verspielte Anwendungen von Technologien zu entwickeln. Gerade bei den verschiedenen „Experiments“ aus unterschiedlichen Bereichen hat man immer wieder eigenartige Dinge kreiert, aber auch hier haben eine handvoll nachher sogar den Sprung zur vollwertigen App geschafft, wie etwa „Just a Line“:

[Download] Google bringt AR-App „Just a Line“ in den PlayStore

 

Mit Move Mirror bringt Google jetzt ein weiteres AI-Experiment an den Start gebracht, das einen Pool aus 80.000 Bildern und Motion Tracking verwendet, um aus euren Bewegungen, die aufgezeichnet werden, ein animiertes GIF baut und jede Änderung der Körperhaltung durch ein anderes Bild darstellt. Etwas schwierig, in einen knackigen und verständlichen Satz zu bringen – mit einem einfachen Bild aber sofort zu verstehen:

 

Google benutzt hierfür PoseNet, das menschliche Körper aus Bildern heraus erkennen kann und die Gelenke und deren Haltung, bzw. Punkte erfasst. Move Mirror verwendet die Bilder der eigenen Kamera etwa im Laptop, mit der ihr euch selber aufnehmt und gleicht die einzelnen Frames mit einer Datenbank von rund 80.000 Bildern ab, die durch PoseNet bereits erfasst wurden und sucht die passendsten Bildern heraus. Betrieben wird das ganze (natürlich) durch Tensorflow und alles zusammen wird direkt innerhalb des Browsers berechnet, mit dem ihr die Seite aufgerufen habt und nicht auf einem Server von Google. Selbst eure Aufnahmen werden dabei nicht übertragen.

Wer es gerne einmal ausprobieren möchte, der kann sich die Seite zu Move Mirror selber einmal im Browser aufrufen und mal ein wenige vor der Kamera herumhüpfen – vielleicht kommt ja was spannendes dabei herum…

AI-Experiment: Move Mirror

 

 

 


Quelle: google

Von Michael

Kommentar verfassen

%d Bloggern gefällt das: