LiDAR – eine unterschätzte Technologie im iPhone

Hallo und herzlich willkommen zu einem neuen Beitrag auf meinem Blog,

Erst im vergangenen Jahr stellte Apple führte der Konzern mit dem iPad Pro 2020 mit LiDAR einen neuartigen Sensor ein, der ein knappes halbes Jahr später auch im iPhone 12 Pro und 12 Pro Max Einzug hielt. In diesem Jahr soll der LiDAR-Sensor ebenfalls den Pro-Modellen vorbehalten bleiben und das will ich einmal als Anlass nutzen, Euch diesen Sensor kurz zu erläutern.

Wofür steht eigentlich LiDAR

LiDAR steht für „Light Detection and Ranging“ und beschreibtt eine radarähnliche Technologie zum Scannen und Kartografieren von Umgebungen. Die wurde in den 1960er Jahren vom US-Militär entwickelt und erreichte in den 70er Jahren bei der Apollo-15-Mission beim Kartografieren der Mondoberfläche internationale Berühmtheit. Im Laufe der Jahre wurde das System dann immer kompakter – kleinerer und leistungsfähigerer Sensoren und Mikrochips sei Dank.

Wie funktioniert LiDAR?

Der Sensor arbeitet auf Basis von Laserstrahlen, was schon ziemlich cool und futuristisch ist. Doch wie arbeitet dieser Sensor nun im Detail? Der LiDAR-Sensor feuert über einen kurzen Zeitraum eine Folge von Laserimpulsen auf verschiedene Teile einer Szene ab. Dies bringt zwei Hauptvorteile mit sich – eine verbesserte Reichweite von bis zu fünf Metern und eine bessere Objekt-„Okklusion“, d.h. das Erscheinen virtueller Objekte, die hinter realen Objekten wie Bäumen verschwinden. Das bedeutet, dass virtuelle Objekte hinter realen Objekten versteckt werden können. Damit gehört die Lidar-Technik zur Gattung der „Time of Flight“-Sensoren, die im Smartphone bisher vor allem zur Verbesserung von künstlichen Fotoeffekten wie Augmented Reality verwendet werden.

Der Scanner emittiert Laserlicht und erfasst gleichzeitig die Reflexionen. Trifft ein Strahl auf ein Objekt und wird reflektiert, errechnet der Scanner anhand der Laufzeit des reflektierten Lichts die Entfernung zum iPhone. Apple hat sich dabei für ein Punktraster entschieden, der ähnlich wie das Infrarotsystem in Face ID arbeitet, und ist deshalb in der Lage, mehrere Objektteile gleichzeitig zu erfassen und somit ein 3D-Modell mit Tiefeninformationen in Echtzeit zu erstellen.

Wie setzt Apple diese Technologie ein?

Der Konzern verwendet LiDAR hauptsächlich für zwei Anwedungsbereiche. Der eine Anwendungsbereich ist natürlich Augmented Reality, ein Thema, beid em sich Apple und Tim Cook besonders engagieren bzw. dessen Vorteile immer wieder hervorheben.

Die Maßband-App etwa arbeitet auf Lidar-iPhones genauer, und die Lupe misst die Entfernung zu einer Person. Einige Programme können aus den erfassten Objekten 3D-Modelle erzeugen, die sich dann in AR- oder 3D-Apps nutzen lassen. Würde man die 3D-Modelle ausschließlich mit der Kamera aufnehmen, sähen sie ziemlich platt aus.

Das klingt recht abstrakt und es gibt meiner Meinung nach immer noch zu wenig nennenswerte Apps, welche das Potenzial wirklichg ausschöpfen bzw. sind extrem teuer – wer in Berlin unterwegs ist, sollte sich aber mal die App „MauAR – Berliner Mauer“ anschauen. Die ist wirklich gelungen und äußerts informativ.

Deutlich alltagstauglicher ist der Einsatz des neuen LiDAR-Sensors bei der Kamera im iPhone. Apple setzt diesen nämlich bei den Porträt-Fotos ein. Damit soll vor allem die Konturenschärfe beim Übergang zwischen scharf und weich verbessert werden. gerade bei Motiven mit Haaren oder Fransen sind die Ergebnisse nach wie vor mangelhaft. Außerderm ermöglicht LiDAR überhaupt erst die Aufnahme von Porträtfotos bei Nacht, dies war vorher nicht möglich. Es wird spannend zu sehen sein, wie Apple zukünftig mit dieser technoilogie umgehen wird, nach wie vor ist der Nutzen des Sensors etwas uninspiriert.

Aus der Produktbeschreibung von Apple geht hervor, dass der LiDAR-Sensor sowohl inenn als auch draußen bis zu einer Entfernung von 5 Metern arbeitet. iOS 14 bringt in Kombination mit dem A14 Bionic das notwendige FrameWork sowie die benötigte Rechenpower mit, damit das System aus den gewonnen Rohdaten ein genaues räumliches Abbild schaffen kann. Dadurch ist das System in der Lage, Hintergrund und Vordergrund voneinander zu trennen.

Wird auch in der Automobilbranche eingesetzt – so auch im Apple Car?

In Kombination mit Radar, GPS und hochsensiblen Kamerasystemen kommt LiDAR eine Schlüsselrolle bei der Entwicklung autonom fahrender Autos zu. Gerade hier ist es wichtig, dass das selbstfahrende Auto eine möglichst präzise, dreidimensionale Karte der Umgebung erstellt; und das mehrere hundert male pro Sekunde. Und genau hier kommt wieder Apple mit seinem Projekt Titan isn Spiel, denn der Konzern werkelt nach wie vor an einem selbstfahrenden Auto. Es kann also gut sein, dass der LiDAR-Sensor im iPhone/ iPad einfach nur eine großangelegte Feldversuchsstudie ist. Die funktioniert aber mehr als passabel, so kann man beispielsweise die Größe eines Menschen exakt damit bestimmen.

Wie findet Ihr den LiDAR-Sensor? Habt Ihr diesen ausgiebig ausprobiert? Oder fehlt Euch noch der passende Anwendungszweck? Schreibt mir Euer Feedback in die nachfolgenden Kommentare

Macht´s gut und bis zum nächsten Mal hier auf dem appletechnikblog, Euer Patrick a.k.a. Meister des Apfels

Kaffeekasse

Spendiere mir einen Kaffee und unterstütze damit meinen Blog und mich bei der Arbeit

3,00 $

Kommentar verfassen

Betrieben von WordPress | Theme: Baskerville 2 von Anders Noren.

Nach oben ↑

%d Bloggern gefällt das: