Mit einer Demo auf der letzten WWDC hat Apple vor viel Applaus und Jubel gesorgt: ARKit, eine Augmented Reality Plattform für Entwickler, die auch die einfache (im wortwörtlichen Sinne) Kamera des iPhone 7 nutzt, um Inhalte auf dem Bildschirm des Smartphones in die echte Welt zu projizieren. Google hatte zu diesem Zeitpunkt bereits Tango vorgestellt und die ersten Geräte für, bzw. mit dieser Technologie auf den Markt gebracht. Mit ARCore will man nun ebenfalls auch Smartphones ohne dual-Kameras und Sensoren zur Messung des Raumes Augmented Reality auf Millionen von Android Smartphones bringen.
ARCore funktioniert dabei sehr ähnlich, wie Apples Lösung: zuerst muss man mit der Kamera des Smartphones die Umgebung, bzw. den Bereich den man nutzen will scannen. Hierfür werden natürlich nur die verfügbaren Sensoren genutzt (was auch sonst) und anschließend kann man Elemente platzieren, skalieren und sich um diese herum bewegen.
ARCore wird in Zukunft für „100 millionen devices“ verfügbar sein, die mit Android 7.0 und höher laufen. Das ist laut Google so ziemlich die einzige Vorgabe für das Nutzen der AR-Plattform. Ob das in der Realität dann auf einem eher schwach ausgestattetem Smarpthone genau so aussehen wird, wird die Zeit zeigen müssen. Aktuell werden lediglich die beiden (noch) aktuellen Pixel-Smartphones und das Galaxy S8 / Plus unterstützt. Man arbeite aber mit Herstellern wie Huawei, LG und HTC an der Umsetzung und einer „konstistenten Messlatte für Qualität und Performance“.
Ich gehe übrigens stark davon aus, dass ARCore auf jeden Fall Teil der Demonstration der neuen Smartphones aus Mountain View sein wird, die wohl am 05. Oktober vorgestellt werden.
Mit der Ankündigung von gestern Abend wurde das Development Kit für ARCore freigegeben und Entwickler können sich ab sofort daran machen, eigene Implementation oder ganze Apps um AR herum zu bauen.
ARCore works with Java/OpenGL, Unity and Unreal and focuses on three things:
– Motion tracking: Using the phone’s camera to observe feature points in the room and IMU sensor data, ARCore determines both the position and orientation (pose) of the phone as it moves. Virtual objects remain accurately placed.
– Environmental understanding: It’s common for AR objects to be placed on a floor or a table. ARCore can detect horizontal surfaces using the same feature points it uses for motion tracking.
-Light estimation: ARCore observes the ambient light in the environment and makes it possible for developers to light virtual objects in ways that match their surroundings, making their appearance even more realistic.
Quelle: google