Ratgeber

So funktioniert ein LiDAR-Sensor

Im iPad Pro steckt er schon, im iPhone seit der 12er-Generation ebenfalls. Aber was macht eigentlich ein Laser im Kameramodul und wie funktioniert er?

Sicherlich kennst du Radar, vermutlich auch Sonar. Aber LiDAR? Das Akronym steht für „Light detection and ranging“ und ist eine dem Radar („radio detection and ranging“, zu Deutsch etwa: „funkgestützte Ortung und Abstandsmessung“) verwandte Technologie, um den Abstand von Objekten im Raum zum lichtaussendenden Modul zu berechnen.

Apple nutzt LiDAR, um gewissermaßen eine 3-D-Karte der unmittelbaren Umgebung zu erstellen und so AR-Anwendungen deutlich brauchbarer zu gestalten.

Die Geschichte der LiDAR-Technologie

Schon in den 1930er-Jahren versuchten Wissenschaftler:innen mithilfe von Suchscheinwerfern Erkenntnisse über die Atmosphäre zu erlangen und die Höhe von Wolken zu vermessen. Für die Entwicklung von LiDAR, wie wir es heute kennen, bedurfte es allerdings zwei weiterer Erfindungen: des Lasers und des GPS.

Denn schließlich wurde LiDAR zunächst vor allem zur Vermessung der Erde mit all ihren Erhebungen und Vertiefungen verwendet. Auch die NASA experimentierte in den 1970er-Jahren mit LiDAR, etwa für die Erstellung topografischer Karten.

Popularität erlangte die Technologie allerdings erst in den 1990er-Jahren, als die Sensoren endlich mehrere tausend Impulse pro Sekunde abgeben und verarbeiten konnten. Heute finden wir LiDAR etwa im Bereich der Robotik, wo sie Maschinen hilft, ihre Umgebung zu „sehen“.

Das Militär verwendet LiDAR, um Ziele ausfindig zu machen. Außerdem gestaltet LiDAR Videospiele noch realistischer, indem Entwicklungsstudios etwa Original-Rennstrecken oder -Gebäude exakt vermessen und digitalisieren.

Es geht immer nur ums Echo

Wenn du schon mal in den Bergen, in einer Höhle oder auch nur in einem leeren Gebäude laut gerufen hast (und wer hat das nicht?), dann bist du bereits mit dem Grundkonzept von Echos vertraut. Die Schallwellen, die aus deinem Mund kommen, prallen gegen ein Hindernis und werden zurückgeworfen; so hörst du dich etwas zeitversetzt selbst.

Das Echo kann dabei helfen, Abstände zu messen. Die Schallgeschwindigkeit bei 20 Grad Celsius in der Luft liegt bei etwa 350 Metern pro Sekunde. Wenn du dich selbst also nach zwei Sekunden hörst, ist das reflektierende Hindernis etwa 350 Meter entfernt: eine Sekunde für den Hin- und eine für den Rückweg des Schalls.

Diese Mathespielerei kennst du auch aus einem anderen Bereich: der Meteorologie. Ganz bestimmt hast du schon die Sekunden zwischen einem Blitz und dem zugehörigen Donnergrollen gezählt, um herauszufinden, wie weit ein Gewitter noch entfernt ist. Der Schall benötigt ungefähr drei Sekunden für einen Kilometer.

Radar, Sonar und LiDAR funktionieren im Prinzip genauso – nur eben viel genauer und mit unterschiedlichen Arten von Wellen. Sonar nutzt Schallwellen, Radar Radiowellen und LiDAR – wie das entfaltete Akronym bereits verrät – Licht.

Schon gewusst?

LiDAR-Sensoren senden Licht im für Menschen nicht sichtbaren Spektrum aus. Trifft dieses Licht auf Objekte, wird es reflektiert und vom LiDAR-Sensor wieder aufgenommen. Viele Technologien versprechen Lichtgeschwindigkeit – LiDAR liefert sie tatsächlich.

Praktische Anwendungen

In der Natur ist das beste Beispiel für den Einsatz von Sonar wohl die Fledermaus. Sie nutzt den Echoeffekt, um durch das Dunkel zu navigieren, Hindernissen auszuweichen und Beute zu finden. Dabei verrät das Sonar ihr nicht nur, wo sich die Beute befindet, sondern auch, wie groß sie ist, welche Form sie hat und wohin sie sich bewegt.

Radar leistet Ähnliches; und so können Fluglots:innen auf ihren Bildschirmen erkennen, ob das sich nähernde Objekt ein Airbus oder ein Adler ist.

LiDAR kommt etwa bei selbstfahrenden Autos zum Einsatz, um andere Fahrzeuge und Verkehrsteilnehmende zu erkennen – und erweist sich als recht praktisch, wenn es um Augmented-Reality-Anwendungen oder Fotografie geht.

Was LiDAR für Apple bedeutet

Apples LiDAR-Technologie reicht etwa fünf Meter weit und bietet eine unglaubliche Genauigkeit – sowohl drinnen als auch draußen. Da es für die Messungen Licht verwendet, arbeitet es im echten Wortsinn in Lichtgeschwindigkeit. Die so gewonnenen Daten kombiniert Apple mit denen, die die Kameras und die Bewegungssensoren liefern, um eine möglichst genaue 3-D-Karte der Umgebung zeichnen zu können. Mittels einer dedizierten Programmierschnittstelle steht diese Technologie allen App-Entwickler:innen bereit.

Zu den prominentesten Beispielen für den Einsatz des LiDAR-Sensors zählen Apps zum Vermessen von Räumen. Mit Shapr3D etwa gelingt es spielend leicht, 2-D-Karten oder 3-D-Modelle von Räumen zu erstellen.

Die Ikea-Katalog-App verfügt hingegen über die Möglichkeit, Möbel in der fast richtigen Größe im virtuellen Wohnzimmer zu platzieren, sodass du dir auf dem Display des iPhone oder iPad schon einmal anschauen kannst, ob das ausgewählte Regal wirklich zum Rest deiner Einrichtung passt.

Apples LiDAR ist nicht genau genug, um Gesichter zu unterscheiden. Für das Vermessen von Räumen und entsprechende AR-Anwendungen funktioniert es allerdings hervorragend.

Was LiDAR nicht kann

Leider kann auch Apple mit der Technologie nicht durch Objekte hindurchblicken. Auch reicht die Auflösung nicht, um etwa Gesichter zu identifizieren oder um das Mobiltelefon als einen Scanner zu verwenden, dessen Daten hinreichend gut wären, um das so erfasste Gerät durch einen 3-D-Drucker replizieren zu können. Das LiDAR-System ist eben vor allem dazu gedacht, Räume zu erkennen und zu vermessen.

Auch bei der Fotografie macht das Vorhandensein des LiDAR-Scanners kaum einen Unterschied. Sebastiaan de With, Gestalter der Kamera-App Halide, schreibt auf dem Firmen-Blog: „Mit LiDAR ist das iPad [Pro, Anm. d. Red.] mit Abstand das beste Gerät, um dreidimensionale Räume zu erkennen. Wenn es um Abmessungen oder AR geht, gibt es nichts Vergleichbares. Dein ein paar Jahre altes iPhone macht aber immer noch die besseren Fotos.“

De Whit ist deshalb aber alles andere als enttäuscht: „[…] Dieser neue LiDAR-Sensor ist nichts, was (derzeit) bei traditioneller Fotografie hilfreich wäre. Aber er öffnet die Tür für neue, mächtige Anwendungen, die kreative Einsatzzwecke ermöglichen“, schreibt er weiter.

Schon jetzt sehen wir, welche gigantischen Sprünge in Sachen Genauigkeit und Performance bestehende AR-Apps durch die Nutzung des LiDAR-Sensors machen können. Auch die Zahl der Praxisanwendungen, die von den Fähigkeiten der mit LiDAR-Sensor ausgestatteten Geräte profitieren, wächst. Wenn (wie so oft) Spiele als Wegbereiter fungieren, finden sich schnell Werkzeuge, die verschiedene Alltagsaufgaben tatsächlich erleichtern. Die nächste Stufe könnte dann dereinst mit einer AR-Brille erreicht werden.

Schon gewusst?

Der von Apple verwendete LiDAR-Sensor hat weder eine große Reichweite noch eine hohe Auflösung. Braucht er auch nicht: Die Daten werden mit denen der Kamera und weiterer Sensoren im Gerät kombiniert, um den Raum um dich akkurat abzubilden.

Produkthinweis

Apple EarPods mit Lightning Anschluss

Mehr zum Thema
zur Startseite