Andere Hersteller hätten da bei der Präsentation einen großen Punkt gemacht und die potenziellen Käufer heiß gemacht, sich das Gerät möglichst früh vorzubestellen und dann darauf zu warten, dass es endlich freigeschaltet wird, Google nennt ein verstecktes Feature der Pixel 2-Geräte erst jetzt. Die beiden Smartphones Pixel 2 und Pixel 2 XL besitzen einen eigenen Chip, den Google inhouse entworfen hat und der für die Verarbeitung der Fotos genutzt werden wird. #nobigdeal

Mit dem sogenannten Pixel Visual Core integriert Google in den beiden Pixel-Smartphones der zweiten Generation einen Chip, der die Bildverarbeitung beim fotografieren übernehmen kann, was bisher, bzw. in der aktuellen Version noch vom verbauten SoC, einem Snapdragon 835 durchgeführt wird. Der Pixel Visual Core soll dabei den Stromverbrauch bei der Aufnahme und Verrechnung der Auto-HDR+ und der Portrait-Aufnahmen auf weniger als 1/10 senken und damit zumindest bei ausladenderen Fotos-Sessions den Akkuverbrauch insgesamt senken.

Mit diesem eigens kreierten Chip geht Google das erste Mal den Weg, den Apple schon länger pflegt: für besondere Aufgaben in den jeweiligen Geräten eine selbstentwickelte Prozessoreinheit liefern, die auf genau einen Aufgabenbereich zugeschnitten ist. Dabei verringert der Pixel Visual Core nicht nur den Stromverbrauch, sondern auch die Rechenzeit, die benötigt wird, um das Bild zu verarbeiten. Für Aufnahmen in HDR+ soll der Chip 5 mal schneller sein, als der Snapdragon 835.

In einigen Beispielen zeigt Google, wie viel besser der Pixel Visual Core mit HDR umgeht, als es aktuell mit dem SoC passiert:

links: HDR+ mit SoC – rechts: HDR+ mit PVC

 

Der Co-Prozessor besteht dabei aus insgesamt 8 IPUs (Image Processing Units), einem Cortex A-53 Prozessor und einem DDR4 RAM unbekannter Größe:

Aufbau des Pixel Visual Core

 

Die Verwendung des Co-Prozessors wird allerdings erst durch eine Software-Aktualisierung ermöglicht. Google wird mit dem Update auf Android 8.1 die notwendigen Zeilen Code auf die Geräte ausrollen, die es dann dem Pixel 2 und Pixel 2 XL erlauben, den Pixel Visual Core für die Verarbeitung der Bilder zu verwenden. Google greift hierbei auf die Technik hinter der Machine Learning Architektur Tensorflow zurück. Die Anpassung des Codes wird durch einen, auf die Hardware angepassten Compiler optimiert.

Dass alle anderen Geräte, die irgendwann Android 8.1 erhalten werden, nicht von diesen Funktionen profitieren werden, sollte allerdings klar sein, da die beiden Pixel-Smartphones die einzigen Geräte mit einem entsprechenden Co-Prozessor sind. Man wird allerdings wohl wieder eine Preview der neuen Android Version für Pixel-Besitzer anbieten, die die neuen Features so noch vor dem offiziellen Rollout testen können. Allerdings kann es in dieser beta-Phase natürlich noch zu Änderungen kommen und eventuell nicht alle Funktionen voll zugänglich sein.

Im späteren Verlauf will Google die Schnittstellen zum Co-Prozessor auch für Entwickler freigeben, sodass die die Technologie auch für ihre Applikationen einbinden und verwenden können. Theoretisch wäre aber auch eine Nutzung des Pixel Visual Core für andere Andwendungszwecke möglich.

Insgesamt ein sehr spannender Fakt, der die neuen Pixel-Smartphones noch einmal in ein etwas anderes Licht rückt und gerade in Sachen Fotoqualität die Smartphones in eine ganz neue Sphäre heben könnte. Auf der anderen Seite ist das aber auch ein Dämpfer für Besitzer älterer Modelle oder Smartphones anderer Hersteller. Die blicken nämlich auf einen weiteren Punkt, der die hauseigenen Google-Smartphones noch besser macht, als so ziemlich alle anderen aktuellen Geräte. Und dieses Mal nicht nur durch künstliche Software-Exklusivität.

 

 


Quellen: google, google

Von Michael

%d Bloggern gefällt das: