Technologische Neuigkeiten, Bewertungen und Tipps!

Pixel 4 Face Unlock vs. Apple Gesichts-ID: Wie sie sich unterscheiden und wie die von Google besser sein könnten

Willkommen im Zeitalter von Soli. Google hat uns gezeigt, wie der Soli Sensor ein paar nette Tricks in Pixel 4 ausführt. Wenn Sie Ihre Hand wie ein Jedi bewegen, um zu ändern, welchen Song Sie spielen, ist dies ziemlich selbsterklärend (und ehrlich gesagt nicht so aufregend) in Verbindung mit dedizierter Hardware, um Ihr Telefon mit Ihrem Gesicht zu entsperren, haben wir noch nie gesehen.

Dies ist nicht die Gesichtsentfernung, an die Sie gewöhnt sind.

Gesichtsentsperrung jedoch ist etwas, was wir schon gesehen haben. Erstes Debüt auf Android 4.0 Ice Cream Sandwich mit dem Galaxy Es ist ein unglaubliches Erlebnis, mit der Selfie-Kamera Ihres Telefons oder in neueren Versionen mit Infrarotkameras Ihr Telefon zu entsperren. Es ist auch ziemlich schnell, einfach zu bedienen und bis Apple entwickelte Face ID auf dem iPhone Xextrem unsicher. Das Entsperren von Gesichtern, bei dem nur eine Kamera zum Erfassen von Daten in einer zweidimensionalen Ebene verwendet wird, ist mit einem Foto leicht zu täuschen. Das machte es mehr zu einer praktischen Funktion, von der sogar Google sagte, dass sie nicht verwendet werden sollte, wenn Sie Wert auf Sicherheit legen.

Ich habe bereits über die Technologie geschrieben, die Face ID steuert. Diese Worte gelten auch für die Implementierung von Google für das Pixel 4. Das ist nicht verwunderlich, da es sich um eine gut etablierte Technologie handelt, mit der ein 3D-Bild von praktisch allem abgebildet und wiederhergestellt werden kann. Die einzige Menge an erfassten Details hängt nur davon ab, wie lange Sie auf die Ergebnisse warten möchten. Je mehr Daten erfasst werden und je mehr Zeit für die Verarbeitung zur Verfügung steht, desto besser und gründlicher können die Ergebnisse sein. Die meisten Menschen möchten jedoch nicht so lange warten, um ihre Telefone zu entsperren. Aus diesem Grund müssen Unternehmen Kompromisse zwischen Geschwindigkeit und Sicherheit eingehen.

Eine kurze Auffrischung der Funktionsweise von Face ID: Mithilfe einer speziellen LED, die Ihr Gesicht mit Infrarot- und Nahinfrarotlicht "wäscht", sowie einer speziellen Komponente, die eine Matrix von kontrastierenden IR- "Punkten" auf Ihr Gesicht projiziert, erfassen Kameras alles in davor und baue eine 3D-Karte. Diese Karte wird dann in ein spezielles Token umgewandelt, basierend auf den vorhandenen Formen (normalerweise ein Gesicht oder ein Teil davon), und das Token wird verwendet, um die in einem sicheren Element im Telefon gespeicherten Daten zu überprüfen. Stimmen die beiden Signaturen überein, wird das Telefon entsperrt.

Das bedeutet, dass der Token mehr kann, als Ihr Telefon zu entsperren. Apple hat eine integrierte Gesichtserkennung, die den Fingerabdrucksensor ersetzt, und Google sagt, dass die Gesichtserkennung von Pixel 4 Sie auch bei Bedarf authentifizieren kann. Bisher scheinen Face ID und Googles Gesichtsentsperrung, wie sie auf Pixel 4 zu sehen sind, fast dasselbe Tier zu sein. Ein kurzer Blick auf die Hardware zeigt jedoch, dass Google viel mehr in diese Blende integriert hat – und das alles mit freundlicher Genehmigung des Soli-Sensors.

So funktioniert Soli

Zu sagen, dass der Soli Sensor eng mit der Gesichtsentsperrung und der Gestenerkennung verbunden ist, ist nicht nur Spekulation. Google macht sehr deutlich, dass die beiden nicht getrennt sind. Der Soli-Chip ist eine Hauptkomponente des gesamten Systems. Von dem Blogeintrag:

Dies funktioniert aufgrund dessen, was Soli ist – ein kleiner und energieeffizienter RADAR-Transceiver, der eine sehr feine Auflösung hat. Das heißt, es kann ein Objekt erkennen, das sich bewegt und sehr feine Details in Echtzeit wahrnimmt, während es in der Lage ist, ein Objekt zu erkennen, das mit weniger Details sehr schnell ist.

Ich habe gesehen Soli in Aktion und es kann leicht und zuverlässig Erkennen Sie das geringste Klopfen eines Fingers oder die Bewegung von Fingern, die so wirken, als würden sie ein Miniatur-Zifferblatt oder einen Miniatur-Knopf drehen. Während dies kontrollierte Demos unter den allerbesten Bedingungen waren, sollte es leicht sein, ein sich bewegendes Telefon zu bemerken, das sich dem Gesicht nähert. Dazu benötigen Sie keine feine Auflösung und ein einfacher Näherungssensor erledigt etwas Ähnliches.

Ein weiterer großer Unterschied zwischen Apple und Googles Implementierung der 3D-Gesichtserkennung ist, dass Google zwei IR-Kameras zum Entsperren von Gesichtern verwendet. Diese Kameras lesen die projizierte IR-Matrix und verwandeln die Konturen und Kurven in ein sicheres Zeichen. Apple Verwendet nur eine dieser Kameras in Face ID. Dafür kann es mehrere Gründe geben: Apple Wenn bessere Teile verwendet werden, erstellt Google ein Stereobild, oder es wird ein zweiter Sensor benötigt, damit das Telefon funktioniert, wenn es um 180 Grad gedreht wird. Wahrscheinlich sind alle drei dieser Dinge wahr. Es löst auch das Problem des Entsperrens des Telefons auf einem Tisch, mit dem Face ID immer noch zu kämpfen hat.

Durch das Sammeln von Informationen mit zwei Face-Unlock-Kameras wird das System schneller und zuverlässiger.

Google nennt diese "Face-Unlock-IR-Kameras", sie werden jedoch auch für jede Bewegungserkennung verwendet, die von Pixel 4 unterstützt wird. Um alles zu erfassen, was vor dem Telefon passiert, ist es sinnvoll, auf jeder Seite eine Kamera zu haben. Sie können sich niemals perfekt im vorderen Totpunkt einer Kamera Ihres Telefons ausrichten, wenn Sie mit der Hand winken, um eine Aktion auszuführen. Eine einzelne Infrarotkamera kann die meisten Ihrer Bewegungen erfassen, unabhängig davon, wie weit sie vom Zentrum entfernt sind. Das Hinzufügen einer Sekunde kann jedoch viel dazu beitragen, das System zuverlässiger zu machen. Und wenn es nicht zuverlässig ist, ist Googles Motion Sense nichts anderes als eine Spielerei.

Gleiches gilt für die Gesichtsentsperrung, insbesondere für "intelligente" Algorithmen, mit denen Google Gesichtsmerkmale besser erkennt. Zwei Kameras können eine stereoskopische Ansicht einer Gesichtskarte erstellen und viel mehr Daten sammeln, oder sie können zusammenarbeiten, um die Genauigkeit zu überprüfen, sodass die Gesichtsentsperrung schneller erfolgt und sich weniger täuschen lässt. Wenn das System mit zwei Kameras beginnt, nach Ihrem Gesicht zu "suchen", um zu sehen, ob es sich auf die Entsperrung vorbereiten soll, kann es dies viel früher tun, da es nicht warten muss, bis Ihr Gesicht näher am Zentrum ist.

Da die Technologie so ausgereift ist, dass sie in ein kleines batteriebetriebenes Gerät wie ein Telefon passt, ist die Wahrscheinlichkeit groß, dass diese "Face-Unlock-IR-Kameras" nicht so teuer sind wie die anderen Apple für das iPhone X. Ein preiswerterer Sensor, der nicht ganz so schnell arbeitet oder eine niedrigere Auflösung hat, ist vollkommen in Ordnung, wenn Sie dem Mix einen zweiten hinzufügen.

Bewegungssinn

Laut Google kann die neue Motion Sense-Funktion des Pixel 4 "Songs überspringen, Weckrufe auslösen und Anrufe stumm schalten, indem Sie einfach mit der Hand winken". Zugegeben, das ist ziemlich cool, aber das Erkennen einer winkenden Hand ist nichts, was wir tun noch nie gesehen.

Neben dem LG G8 können wir zum Moto X zurückkehren, um Handgesten in Aktion zu sehen. Mithilfe einer Reihe von Sensoren an der Vorderseite des Telefons wurde eine einfache Welle des Haves erkannt, selbst wenn der Bildschirm ausgeschaltet war. Googles ATAP Das Team (Advanced Technology and Projects) wurde mit Motorola geboren und ist für Motion Sense verantwortlich.

Motion Sense wird die Hardware in Pixel 4 nicht in vollem Umfang nutzen, da Sie nicht jedes Mal eine dreidimensionale Karte Ihrer Hand zeichnen müssen, um sie verwenden zu können. Aber es wird den Soli-Chip und einige intelligente Algorithmen verwenden. Das heißt, was wir bisher von Google gesehen haben, ist wahrscheinlich nur der Anfang.

Mit RADAR mit feinen Details zur Erfassung sehr komplexer Bewegungen besteht der einzige begrenzende Faktor für Motion Sense darin, die gesammelten Informationen zu verarbeiten. Sobald Algorithmen in der Lage sind, andere Gesten genau zu identifizieren, erwarte ich, dass Google sie auf einer bestimmten Ebene in Android einbaut und hoffentlich eine API öffnet, damit Drittanbieter Daten vom Soli Sensor abrufen können.

Wie genau Motion Sense sein wird und wie oft es ein "falsches Positiv" sieht, bei dem ein flatternder Vorhang oder Ihre Katze eine Geste auslöst, bleibt abzuwarten. Erwarten Sie wie bei jeder Gesichtserkennung Unebenheiten auf der Straße.

Aber wird es saugen?

Wahrscheinlich nicht. Aber alles hängt davon ab, was Sie erwarten.

Aktuelle Face-Unlock-Lösungen für Android basieren in der Regel auf der Frontkamera, die nur ein 2D-Bild aufzeichnet. Es ist schnell, aber auch leicht zu täuschen. Deshalb lässt Google Gerätehersteller es nicht zu, damit zu bezahlen oder etwas anderes zu tun, als das Telefon zu entsperren. Andere Lösungen, wie Samsungs inzwischen nicht mehr existierender Iris-Scanner oder die Spatial-Mapping-Lösung von Huawei für den Mate 20 Pro, ähneln der von Face ID und der kommenden Lösung von Google, da sie erheblich sicherer sind.

Sie passen Ihr Gesicht nicht nur an ein bekanntes Bild an, sondern erstellen und lesen eine räumliche Karte.

Alles, was neu ist, durchläuft eine Phase, in der es nervt.

Was das bedeutet, ist, dass das "Bild" viel mehr bedeutet als zu sagen: "Hey, das ist Jerry. Mach weiter und schalte sein Handy frei", wenn es mein Gesicht oder ein Foto von meinem Gesicht sieht. Die modulierte Erfassung von räumlichen Verzerrungskarten – ein Fachbegriff, der bedeutet, "alle Unebenheiten, Kurven und Linien eines Objekts zu überprüfen und alle Daten über das, was Sie sehen, zu speichern" – benötigt Zeit. Der Vergleich der gesammelten Daten mit einer bekanntermaßen guten Stichprobe nimmt ebenfalls Zeit in Anspruch. Es ist auch eine Größenordnung sicherer, als das Foto eines Gesichts anzusehen und zu analysieren.

Wie bei Face ID in den Anfängen wird es Unebenheiten auf der Straße geben. Google versucht, einen von ihnen abzuwehren, indem es Gesichtsscans von Leuten auf der Straße sammelt, da diese Art von Technologie es mit Leuten von Farbe schwer hat. Das ist etwas, was eine KI lernen kann, umzugehen, und hoffentlich hilft das Scannen all dieser Gesichter durch Google dabei, dass es einigermaßen schnell geht. Weitere Themen sind die Umgebungsbeleuchtung, das Erkennen von kosmetischen Veränderungen wie gezupften Augenbrauen beim Rasieren Ihres Schnurrbartes und nicht zuletzt eine Brille. All diese Probleme lassen sich "leicht" beheben, aber dann müssen die Korrekturen so vorgenommen werden, dass das System nicht weniger sicher ist.

Diese Technologie ist nicht so schwierig und wird wie Face ID auf dem iPhone bald zur zweiten Natur werden.

Ich gehe davon aus, dass Reddit in einer Woche, nachdem das Telefon in die Hände der Leute gelangt ist, explodieren wird. Dann wird es langsam köcheln, wenn diese Probleme in Software-Patches behoben werden. Sobald die Algorithmen optimiert und die Sensoren angewählt sind, können andere Hersteller die Technologie in ihre eigenen Android-Modelle integrieren.

Zuerst mag es schlecht sein. Alles Tech ist. Sichere Gesichtserkennung hat jedoch einen soliden Hintergrund und wird jeden Tag von unzähligen anderen Unternehmen für viele andere Zwecke verwendet. Es ist kein unüberwindbares Problem, das Gerät so einzustellen, dass es auf einem Handheld mit eingeschränkter Leistung funktioniert, der Ihr Gesicht liest.

Für Einkäufe über unsere Links können wir eine Provision verdienen. Mehr erfahren.