Home

PoseSchätzung

PoseSchätzung bezeichnet in der Computer Vision und Robotik den Prozess der Bestimmung der Position und Orientierung eines Objekts, einer Kamera oder einer Szene relativ zu einem Referenzkoordinatensystem. Typisch wird der Zustand durch eine 6D-Pose beschrieben, bestehend aus einer dreidimensionalen Translation und einer Rotation. Ziel ist es, aus Sensordaten wie Bildern, Tiefeninformationen oder Punktwolken die räumliche Lage zuverlässig abzuleiten.

Zu den gängigen Ansätzen gehören 2D-3D-Punktabgleiche wie das Perspective-n-Point-Verfahren (PnP) zur Bestimmung einer Pose aus bekannten

Abhängig von der Sensorik variieren die Pipelines. Monokulare Kameras liefern 2D-Informationen, während RGB-D-Kameras oder LiDAR zusätzliche

Anwendungsgebiete reichen von Roboterführung und Greifen über Navigation in autonomen Systemen bis hin zur Augmented- bzw.

Typische Leistungskennzahlen umfassen Rotationsfehler (in Grad), Translationsfehler (in Metern) sowie ADD- bzw. ADD-S-Maße für Objekte mit

3D-Modellen
und
korrespondierenden
2D-Bildpunkten,
sowie
die
Registrierung
von
3D-Punktwolken
mittels
Iterative
Closest
Point
(ICP).
Direkte
Verfahren
minimieren
Reprojectionsfehler
oder
Bildgradienten
ohne
explizite
Merkmalsaufbereitung,
während
lernbasierte
Methoden
Pose-Schätzungen
aus
Datenmustern
ableiten.
Tiefenmessungen
beisteuern.
In
der
Robotik
wird
PoseSchätzung
oft
im
Kontext
von
Visual
Odometry
oder
SLAM
genutzt,
um
Position
und
Karte
über
Zeit
konsistent
zu
schätzen.
Mixed-Reality-Visualisierung,
bei
der
virtuelle
Objekte
exakt
im
realen
Raum
verankert
werden.
Symmetrien.
Zu
den
Herausforderungen
gehören
Verdeckung,
Symmetrien,
Beleuchtung,
Bildunordnung
und
der
Bedarf
an
ausreichender
Rechenleistung
für
Echtzeit-Anwendungen.