Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


3D-Objekte aus unvollständigen Daten

Rekonstruktion enes Stuhls aus unvollständigen Daten
Die Saarbrücker Informatiker können aus solch fehlerhaften Daten die ursprünglichen Objekte rekonstruieren. (Quelle: MPI)

Mit speziellen Kameras können reale Objekte inzwischen digital erfasst werden. Sie stoßen jedoch noch an Grenzen, wenn beispielsweise die Oberfläche eines Objektes für den Scanner zu dunkel ist und daher kein Signal liefert oder sich Teile gegenseitig verdecken. Informatiker des Max-Planck-Instituts für Informatik haben gemeinsam mit Kollegen vom US- amerikanischen Halbleiterhersteller Intel und dem Intel Visual Computing Institute der Universität des Saarlandes eine Methode entwickelt, die selbst aus unvollständigen Aufnahmen ein digitales Objekt rekonstruieren kann. Die Forscher nutzen dafür einen speziellen Typ eines neuronalen Netzwerkes.

 

„Obwohl die 3D-Scan-Technologie in den vergangenen Jahren einen erheblichen Sprung gemacht hat, ist es immer noch eine Herausforderung, die Geometrie und Form eines realen Objektes digital und automatisiert zu erfassen“, erklärt Mario Fritz, der am Max-Planck-Institut für Informatik die Gruppe „Scalable Learning and Perception“ leitet. Laut Fritz sind Tiefensensoren, etwa der Microsoft Kinect Sensor, sehr leistungsfähig, aber sie funktionieren nicht auf allen Materialien gleich gut, was zu verrauschten Daten oder sogar fehlenden Messwerten führt. „Die daraus resultierenden fehlerhaften oder sogar unvollständigen 3D-Geometrien stellen ein echtes Problem für eine Reihe von Anwendungen dar, etwa in der virtuellen, erweiterten Realität oder bei der Zusammenarbeit mit Robotern und im 3-D-Druck“, erklärt Mario Fritz.

 

Gemeinsam mit weiteren Forschern vom US-amerikanischen Halbleiterhersteller Intel und dem Intel Visual Computing Institute der Saar-Uni entwickelte er daher eine Methode, die auch mit unvollständigen Datensätzen funktioniert. Sie nutzt ein spezielles neuronales Netzwerk. „Unsere Methode benötigt keinerlei Aufsicht während der Lernphase, was in dieser Form ein Novum ist“, erklärt Fritz. Auf diese Weise konnten die Forscher beispielsweise einen flachen Monitor, dessen digitales Abbild nach dem 3-D-Scan eher einer Bretterwand glich, so rekonstruieren, dass jedermann wieder in dem digitalen Objekt einen Monitor erkennen konnte.

 

Damit schlagen die Saarbrücker Informatiker auch bisherige Methoden, die fehlerhafte 3D-Scans verbessern und Formen vervollständigen. Auch bei der Klassifizierung von gescannten Objekten zeigt die Methode aus Saarbrücken sehr gute Ergebnisse. In Zukunft wollen die Wissenschaftler ihre Methode weiterentwickeln, so dass es auch bei verformbaren Objekten und größeren Szenen funktioniert.

 

„Zukünftig muss es einfach und schnell gelingen, Objekte aus der echten Welt zu erfassen und diese realitätsnah in die digitale Welt zu projizieren“, erklärt Philipp Slusallek, Professor für Computergraphik der Universität des Saarlandes und wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Am DFKI ist er auch für das europäische Verbundprojekt „Distributed 3D Object Design“, kurz DISTRO, verantwortlich, mit dem die Europäische Union die Forschungsdisziplinen Visual Computing und 3D-Computergrafik an die wissenschaftliche Weltspitze bringen will. Dazu soll eine neue Generation von exzellenten Wissenschaftlern und Technikern ausgebildet werden. Fünf der 15 ausgeschriebenen Doktorandenstellen wurden mit Forschern des Saarland Informatics Campus an der Universität des Saarlandes besetzt.

 

Siehe auch:

https://scalable.mpi-inf.mpg.de/vconv-dae-deep-volumetric-shape-learning-without-object-labels/

Zurück