Kinect & Co. als 3D-Scanner

Seite 5: Wo sind die Grenzen?

Inhaltsverzeichnis

Beim ersten Scan mit der Tiefenkamera fällt den meisten noch die Kinnlade herunter. Im Alltag nutzt sich die Faszination allerdings schnell ab. Die Grenzen des Sensors treten deutlich zutage: Das USB-Kabel schränkt die Bewegungsfreiheit ein, die geringe Auflösung lässt kleine Gegenstände nach dem Scan wie aus zerfließendem Vanilleeis geformt erscheinen. Da hilft auch die millimeterfeine Voxel-Auflösung einiger Anwendungen nicht, denn wie beim Fotoapparat sagt die Auflösung noch lange nichts über die Schärfe und Genauigkeit der Wiedergabe aus.

Mal in Zahlen gesprochen: Der Tiefensensor der ersten Kinect hat eine Auflösung von 320 × 240 Pixeln, der Mindestabstand zwischen Sensor und Objekt beträgt mindestens 40 Zentimeter. Den Öffnungswinkel gibt Microsoft mit 57 Grad an. Daraus ergibt sich, dass sich beim minimalen Abstand zum Objekt die 320 Sensorpixel in der Breite auf etwa 43 Zentimeter verteilen, was rund 1,34 Millimeter pro Pixel entspricht. Details des Zielobjektes, die nur einen Millimeter groß sind, fallen so durch das Raster. Kommt man nicht ganz so dicht heran, steigt die minimale Größe für Details linear an, bei 1,2 Metern Abstand muss etwas schon mehr als 4 Millimeter groß sein, um dem Sensor überhaupt aufzufallen.

Zu Beginn des 3D-Scans mit der Kinect erscheint das 3D-Modell stellenweise grob – hier zum Beispiel ist die Oberfläche des Pullovers noch sehr rauh ...

Wäre das schon alles, müssten die 3D-Scans aus der Kinect allerdings so ähnlich aussehen wie Minecraft-Modelle: aus lautern Würfeln mit Kantenlänge ab einem guten Millimeter aufwärts zusammengesetzt. Das ist aber nicht so: Gemessen an der recht groben räumlichen Auflösung liefert die meiste 3D-Scan-Software für Kinect & Co. erstaunlich feine 3D-Modelle. Das liegt daran, dass diese laufend weitere Punktkoordinaten sammelt, während der Anwender den Sensor durch den Raum bewegt.

... beim Umkreisen verrechnet die Software das bisherige Scan-Ergebnis allerdings live mit den neu hinzugekommenen 3D-Daten ...

Jeder einzelne 3D-Schnappschuss unterliegt zwar dem Raster der beschränkten Auflösung, aber die Bewegung des Sensors durch den Raum zwischen den Momentaufnahmen ist diesem Raster nicht unterworfen. Aus der ständig wachsenden Punktwolke verdichtet die Software allmählich der 3D-Scan, indem sie Ausreißerpunkte identifiziert und Oberflächen dort verortet, wo sich viele Punkte ballen. Im Lauf des Scans glätten sich zunächst buckelig erfasste Flächen, Kanten treten schärfer hervor, die größeren Formen bilden sich präzise und sogar maßhaltig heraus.

... sodass am Ende der Scan die Realität deutlich genauer abbildet als zu Beginn.

Jedoch bliebt die Beschränkung im Detail durch die Sensorauflösung hart: Was nur einen guten Millimeter groß ist, erscheint im 3D-Scan mit der Kinect im schlechtesten Fall gar nicht und im besten als diffuse Pocke oder Delle im Objekt, auf keinen Fall aber erkennbar ausgeformt, wie oft man auch mit dem Sensor die Stelle virtuell abtastet. Erfasst der Sensor in einer 3D-Momentaufnahme mal eine signifikante Kante oder Ecke der winzigen Struktur, so kann sich diese Punktkoordinate dann aber doch nicht gegen die vielen anderen Messungen dicht drumherum durchsetzen, denen das Detail durch die Lappen gegangen ist. Eine ganz ähnliche Erfahrung haben wir auch bei Lichtschnitt-3D-Desktop-Scannern gemacht, bei denen man mehrere Scans eines Objekts in unterschiedlicher Lage kombinieren kann: Durch mehr Rohdaten, die in mehreren Durchgängen gesammelt werden, treten die großen Formen zunehmend genauer zu Tage, mehr Details bilden sich allerdings nicht mehr heraus.

Bereits im Jahr 2013 lautete das Fazit des c't-Tests, dass die Software nicht der limitierende Faktor für die Qualität der 3D-Scans sei, sondern die geringe Auflösung der PrimeSense-Sensoren, insbesondere weil man sich an die zu erfassenden Gegenstände nicht beliebig annähern kann. Es gab zwar Berichte über die Kombination eines kurzsichtigeren Carmine-1.09-Sensors mit einer handelsüblichen Lesebrille aus dem Drogeriemarkt, die erstaunlich mehr Details erfassen können sollte, Mainstream wurde das aber nie. Und auch wenn natürlich die Software seitdem Fortschritte gemacht hat, kann sie dennoch nicht zaubern. Bessere 3D-Scans wird es nur mit besserer Hardware geben – etwa mit Intels RealSense-Technik oder der Kinect der zweiten Generation.

Mehr Infos

Alternativen

Kinect & Co. sind nicht die einzigen Mittel, um günstig an 3D-Datenmodelle realer Gegenstände zu kommen. Gerade bei Objekten, die zu klein für die Auflösung der PrimeSense-Tiefenkameras sind, bietet sich das Lichtschnittverfahren an: Ein Laser zeichnet eine Linie auf das Zielobjekt, das sich langsam auf einem Teller dreht. Betrachtet man die Linie schräg von der Seite, erscheint sie je nach Form der Oberfläche verzerrt. Das schneidet wiederum eine Kamera mit, aus deren Bilddaten die Software nach einer kompletten 360-Grad-Drehung das 3D-Modell berechnet. Für Modelle beliebiger Größe – von der Haselnuss bis zum Straßenzug – eignet sich hingegen die Photogrammetrie. Hierbei rekonstruiert spezielle Software das 3D-Modell aus Fotoserien, die ein Objekt aus verschiedenen Blickwinkeln zeigen. Auch dafür gibt es kostenlose Angebote.

()