Was ist ein 3D-Sensor?
Ein 3D-Sensor ist ein Sensor, der dreidimensionale Formen erfasst.
Während allgemeine Kameras Sensoren zur Erfassung flacher (zweidimensionaler) Informationen sind, können 3D-Sensoren zusätzlich zu zweidimensionalen Informationen auch Höheninformationen erfassen.
In unserem täglichen Leben nehmen wir Reize und Informationen mit unseren Augen, Ohren, Händen und anderen fünf Sinnen auf, 3D-Sensoren können diese Sinne ersetzen. Diese Technologie wird auch als 3D-Sensorik bezeichnet.
Arten von 3D-Sensoren
Es gibt verschiedene Arten von 3D-Sensoren, je nach Messverfahren. Es gibt drei Hauptarten von Sensortechnologien, die zur Erfassung von 3D-Formen verwendet werden: Zeitverzögerung, Triangulation und Fokus. Jede dieser Methoden wird im Folgenden erläutert.
Zeitverzögerungsmethode
Bei dieser Methode wird die Entfernung anhand der Zeit gemessen, die das Licht benötigt, um zum Sensor zurück zu gelangen.
Die Tiefe kann über einen Bereich von bis zu 100 m oder mehr gemessen werden, aber die Genauigkeit liegt bei kurzen Entfernungen nur bei wenigen Millimetern.
Die Zeitverzögerungsmethode, mit der große Entfernungen gemessen werden können, wird zunehmend zur Erkennung von Personen und Objekten im automatischen Fahrzeugbetrieb und bei fahrerlosen Transportsystemen (FTS) eingesetzt.
Zeitverzögerte Verfahren werden in den folgenden Technologien verwendet:
- LiDAR
LiDAR ist ein Oberbegriff für ein Verfahren zur Messung der Entfernung zu einem Objekt und seiner Form durch Bestrahlung mit einem Laserstrahl und Erfassung des reflektierten oder gestreuten Lichts. Die Entfernung und Richtung zu einem Objekt wird durch die Messung der Zeit gemessen, die das eingestrahlte Laserlicht benötigt, um auf das Objekt zu treffen und zurück zu prallen. - TOF (Time-of-Flight)
Ein TOF-Sensor ist ein LiDAR, der in regelmäßigen Abständen gepulste Wellen projiziert.
TOF-Sensoren werden oft als TOF-Kamera in Kombination mit einer Kamera verwendet und können mit einer einzigen Belichtung Informationen über ein großes Sichtfeld erfassen. Sie sind relativ kostengünstig.
Triangulationsverfahren
- Optisches Schneiden
Bei dieser Methode wird eine Laserlichtlinie auf ein Objekt gestrahlt, das reflektierte Licht wird von einer Kamera erfasst und die Höhe des Objekts wird anhand der Verschiebung der Laserlinie gemessen.
Es handelt sich um einen Zeilensensor, der Daten für ein Profil (Querschnitt) in einem einzigen Scanvorgang erfasst. Durch kontinuierliche Kombination der Profildaten, die bei der Bewegung des Sensors oder des Objekts erfasst werden, können 3D-Formen erzeugt werden.
- Stereosehen
Nach dem gleichen Prinzip, wie wenn ein Mensch ein Objekt sieht, erfassen zwei oder mehr Kameras die gleiche Position des Objekts und berechnen den Höhenunterschied aus der Parallaxe der beiden oder mehreren Kameras.
Diese Methode ist in Bezug auf Geschwindigkeit und Kosten vorteilhaft, da die 3D-Form mit einer einzigen Aufnahme von einer Flächenkamera erfasst werden kann. Da die Parallaxen zwischen Merkmalspunkten im aufgenommenen Bild verglichen werden, müssen die Höhenunterschiede als Texturen erscheinen.
- Streifenprojektion/Musterprojektion
Bei dieser Methode wird die Höhe gemessen, indem mehrere Streifenmuster auf ein Objekt projiziert und die aus verschiedenen Richtungen aufgenommenen Bilder der Muster analysiert werden.
Hochpräzise 3D-Geometrie kann im statischen Zustand erfasst werden.
Brennpunkt-Methode
- Weißlicht-Interferenz
Hierbei handelt es sich um ein Messverfahren, das die Eigenschaft der starken Interferenz ausnutzt, wenn weißes Licht mit mehreren Wellenlängen aus zwei Richtungen eingestrahlt wird und ihre optischen Weglängen genau gleich sind.
Das weiße Licht wird durch einen Strahlteiler in zwei Teile geteilt, einer wird auf das Objekt und der andere auf einen Referenzspiegel reflektiert. Die Höhe und Tiefe der Objektoberfläche wird anhand der Interferenzintensität des vom Sensor empfangenen Lichts gemessen.
Die Fokusposition kann in der Größenordnung der Wellenlänge des Lichts berechnet werden, was Höhenmessungen im Nano- und Mikrometerbereich ermöglicht. Außerdem können die Messungen unabhängig von Material und Farbe des Objekts durchgeführt werden.
- Konfokal
Bei der konfokalen Optik wird das Licht einer punktförmigen Lichtquelle durch eine Objektivlinse geleitet und von der Oberfläche des Objekts reflektiert, wobei das reflektierte Licht erneut durch die Linse geleitet und vom Sensor empfangen wird.
Unmittelbar vor dem Lichteintritt in den Sensor befindet sich eine kleine Öffnung, die so genannte Lochblende, durch die nur das am Brennpunkt reflektierte Licht fällt und erfasst wird, wodurch die Fokusposition bestimmt wird.
Da es nicht möglich ist, einen großen Bereich in einer einzigen Messung zu erfassen, wird es hauptsächlich bei Anwendungen eingesetzt, bei denen ein begrenztes Sichtfeld gemessen wird, wie z. B. bei der Lasermikroskopie.
- Fokussierung
Eine Messmethode, bei der der Abstand zwischen der Kamera und dem Objekt in kleinen Schritten variiert wird, um die optisch fokussierte Position zu finden.
Es werden mehrere Bilder aufgenommen. Die 3D-Form wird durch Analyse der Veränderung der Fokusunschärfe rekonstruiert.
Der große Bereich der Z-Achse und die Möglichkeit, in einer Ebene zu messen, ermöglichen eine schnellere Messung als die Fokusmethode, allerdings ist die Genauigkeit geringer.
Anwendungen von 3D-Sensoren
3D-Sensoren werden in allen Arten von Geräten eingesetzt, vor allem in Systemen, die die Erkennungsfunktion einer Kamera nutzen, um aus 2D-Bildinformationen Bilddaten mit 3D-Entfernungsinformationen zu gewinnen. Als Beispiele werden hier Automobile und Baumaschinen genannt.
Anwendung in Automobilen
Automatische Fahrzeuge verwenden 3D-Sensoren, um ihre eigene Position und Umgebungsinformationen zu ermitteln. Positionsinformationen können auch über das Globale Navigationssatellitensystem (GNSS) bereitgestellt werden, aber für die Echtzeiterkennung sind 3D-Sensoren unerlässlich.
Anwendung in Baumaschinen
Baumaschinen zeigen ihren wahren Wert in Umgebungen, in denen GPS nicht eingesetzt werden kann: 3D-Sensoren können zur Erkennung von Arbeitern und zur Messung der Abmessungen von Objekten eingesetzt werden und so das unbemannte Bauen fördern.
Außerdem kann der Transportweg von transportierten Objekten verfolgt und Lagerorte können aufgezeichnet werden. Auf diese Weise lassen sich Probleme beim Transport, der Standort von Materialien und der Lagerbestand leichter ermitteln.
Es gibt auch andere Produkte, die auf die Erfassung von 3D-Bildern mit Hochgeschwindigkeitssensoren oder in Produktionslinien spezialisiert sind, z. B. für die 3D-Vermessung von Objekten.
Funktionsweise von 3D-Sensoren
Es gibt verschiedene Arten von Sensoren, abhängig von der Messmethode und dem zu messenden Objekt usw. Die zur Erfassung von 3D-Daten verwendete Sensortechnologie lässt sich grob in zwei Typen einteilen: passive und aktive Methoden. Diese beiden Methoden lassen sich danach einteilen, ob sie Licht projizieren oder nicht.
Beide werden im Folgenden erläutert:
Passive Methoden
Passive Verfahren erfassen Objekte, indem sie das Objektbild unter Beleuchtung abbilden und elektromagnetische und andere Wellen von dem zu messenden Objekt empfangen.
Die wichtigsten Kategorien sind monokulare, binokulare und multinokulare Verfahren, die berührungslos dreidimensionale Informationen liefern. Zu den weiteren detaillierten Kategorien gehören Form aus Schattierung, Form aus Textur und Form aus Kontur beim monokularen Sehen.
Binokulares Sehen bedeutet Stereobetrachtung mit beiden Augen. Multinokulares Sehen bedeutet Stereobetrachtung mit mehreren Augen und Konzentration auf den Bewegungsbereich.
Das Problem bei passiven Methoden ist, dass sie sehr zeitaufwändig sind, da sie die Verwendung von zwei (binokularen) oder mehreren Kameras zur Abbildung der Bilder erfordern. Stereokameramethoden werden ebenfalls als passive Methoden eingestuft.
Aktive Verfahren
Aktive Methoden messen Entfernungen, indem sie elektromagnetische Wellen auf das zu messende Objekt projizieren und deren Reflexion ausnutzen.
Die wichtigsten Kategorien dieser Methode sind optisches Radar, optische Projektion, Moiré und photometrisches Stereo.
Für die Moiré- und photometrischen Stereomethoden gibt es keine detaillierte Klassifizierung.
Bei den optischen Radarmethoden werden Zeitdifferenz- und Phasendifferenzmessverfahren eingesetzt.
Lichtprojektionsverfahren verwenden Punkt-, Spalt- oder Schräglicht und nutzen auch Muster aus verschiedenen Kodierungen (Musterprojektionsverfahren für Intra-Raum- und Zeitseriencodes).
Aktive Methoden haben das Problem, dass sie durch die Messumgebung und das Messobjekt begrenzt sind.
So sind beispielsweise Mechanismen für die Lichtprojektion erforderlich. Sie eignen sich nicht für Fernaufnahmen in hellen Umgebungen wie im Freien. Aus diesen Gründen wird die ToF-Methode (Time of Flight) als aktive Methode eingestuft.
Da für die 3D-Erfassung alle möglichen Messmethoden und Sensortypen zur Verfügung stehen, ist es wichtig, eine Auswahl je nach dem gewünschten Fall zu treffen.