
Wenn man von außen auf die beiden Technologien Gaussian Splatting und Fotogrammetrie blickt, drängt sich fast zwangsläufig die simple – oder sagen wir ruhig: ein wenig naive – Frage auf:
Was ist denn jetzt eigentlich besser?
Natürlich wissen wir alle, dass solche Fragen in der Realität selten einfach zu beantworten sind. Trotzdem ist sie berechtigt – denn warum sollte man sich überhaupt mit einer neuen Technologie auseinandersetzen, wenn sie dem Altbewährten nicht mindestens in bestimmten Punkten überlegen ist?
Genau mit dieser Fragestellung sind auch wir in unser kleines Praxiserlebnis eingestiegen.
Wir hatten die Gelegenheit, ein besonderes, etwa drei Meter großes Architekturmodell, das den nie realisierten Entwurf eines Münchner Opernhauses für Richard Wagner zeigt (aktuell im Museum Herrenchiemsee ausgestellt), zu digitalisieren.
Eine perfekte Gelegenheit, beide Verfahren – Fotogrammetrie, mit der wir bereits viel Erfahrung haben, und das für uns noch recht neue Gaussian Splatting mit dem Lixel K1 LiDAR-Scanner – einmal direkt nebeneinander zu testen und ehrlich gegeneinander zu halten.
Und ja, auch wir haben uns am Anfang gefragt:
Macht es überhaupt Sinn, diesen neuen Workflow zu testen, oder ist die Fotogrammetrie am Ende eh die sicherere Weg?
Wie so oft in solchen technologischen Vergleichen ist die Antwort:
Es kommt drauf an.
Es gibt Stärken und Schwächen auf beiden Seiten – und genau diese möchten wir in diesem Blogpost einmal detailliert und praxisnah ausbalancieren.
Unser Ziel: Keine Schwarz-Weiß-Antwort, sondern eine fundierte Entscheidungsgrundlage, wann welches Verfahren für welchen Einsatzzweck sinnvoll ist.
Wie gewohnt, haben wir uns bei der Fotogrammetrie für den bewährten Ansatz mit über 1.000 Bildern entschieden. Die Aufnahme dauerte etwa eine Stunde. Dank unserer Erfahrung wussten wir, dass wir mit dieser Menge an Fotos ein solides Ergebnis erzielen werden.
Allerdings ist der Aufwand dabei erheblich – gerade vor Ort in einem Museum, wo die Zeit oft begrenzt ist und besondere Rücksicht auf Exponate genommen werden muss.
Trotz aller Sorgfalt zeigte sich bei der späteren Auswertung ein typisches Problem:
Vor allem in schattigen Bereichen, wie bei den hinteren Torbögen unseres Modells, traten leichte Verzerrungen und Artefakte auf. Linien, die eigentlich gerade sein sollten, wirken teilweise verzogen – fast wie in einem Dali-Gemälde. Kein Wunder, denn diese Bereiche lagen im Schatten, wo nur wenig Bildmaterial verfügbar war. Hier offenbart sich eine bekannte Schwäche der Fotogrammetrie ohne zusätzliche Stützpunktdaten oder Punktwolken.
Der Lixel K1 LiDAR-Scanner brachte eine interessante Alternative ins Spiel. Zwar ist der Scanner eigentlich für größere Räume und Objekte konzipiert, doch unser Versuch zeigte: Auch bei einem drei Meter großen Modell lieferte er erstaunlich gute Ergebnisse.
Die Aufnahme dauerte lediglich 15 Minuten, inklusive mehrfachen Umrundens und verschiedener Perspektiven von oben und unten. Besonders positiv: Wir konnten das Modell aus sicherer Entfernung erfassen, ohne das Exponat zu gefährden.
Dass der Scanner auch die Umgebung mit erfasst, war uns bewusst – die entstandenen Lücken im Raum waren für unseren Fokus auf das Modell aber kein Problem.
Ein wichtiger Punkt:
Wir hätten zwar theoretisch einen Handscanner einsetzen können – verfügten aber selbst nicht über ein solches Gerät.
Hinzu kommt: Auch wenn das Modell frei im Raum auf einem Tisch präsentiert wurde und wir physisch Zugang zum Tisch hatten, wäre die Arbeit mit einem Handscanner sehr aufwendig und potenziell riskant gewesen.
Denn:
Handscanner müssen in der Regel aus sehr geringer Distanz (unter 20 cm) eingesetzt werden. Gerade die Dachregionen des Modells wären damit schwierig erreichbar gewesen. Um diese Bereiche korrekt zu erfassen, hätten wir uns weit über das Modell beugen oder den Scanner direkt über das empfindliche Exponat halten müssen.
Das wäre nicht nur umständlich, sondern auch gefährlich gewesen – sowohl für das Exponat als auch für die Stabilität der Aufnahme.
Zudem stellt sich bei Handscannern immer die Frage, wie stabil die Bewegungen bei solchen Positionen überhaupt noch ausgeführt werden können, ohne das Ergebnis zu verfälschen.
Für uns war daher klar: LiDAR mit Gaussian Splatting erschien als pragmatischste, sicherste und zugleich schnellste Lösung, da wir das Modell aus der Distanz und ohne Überbeugen vollständig erfassen konnten.
Ein Punkt, der oft missverstanden wird, sollte an dieser Stelle klargestellt werden:
Der Lixel K1 LiDAR-Scanner erzeugt nicht zwangsläufig proprietäre Gaussian Splatting-Daten. Vielmehr hängt das Ergebnis davon ab, welchen Verarbeitungs-Workflow und welche Software man verwendet.
Die von Lixel bereitgestellte Software bietet standardmäßig einen direkten Export in Formaten, die sich sehr einfach für Gaussian Splatting nutzen lassen – etwa für Anwendungen in Echtzeit-Engines oder für Web-basierte Visualisierungen.
Allerdings wäre es genauso möglich, die Rohdaten aus dem Lixel K1 auch für klassische Fotogrammetrie-Workflows zu verwenden. Dazu müssten die LiDAR-Daten beispielsweise als Punktwolken exportiert und mit fotogrammetrischen Verfahren kombiniert oder in Polygonmodelle überführt werden.
Das ist durchaus machbar – aber mit einem deutlich höheren Aufwand und entsprechendem Fachwissen verbunden. Spezialisierte Softwarelösungen wie Agisoft Metashape oder ähnliche können solche Workflows unterstützen, sind aber nicht die Standardanwendung des Lixel K1.
Für uns war in diesem Projekt die Nutzung von Gaussian Splatting der pragmatischste Weg, um schnelle und performante Ergebnisse für eine VR- und WebAR-taugliche Visualisierung zu erzielen.
Beide Methoden lieferten im Vergleich valide Ergebnisse – mit jeweils eigenen Stärken und Schwächen.
Die Fotogrammetrie erzeugte ein polygonales Modell mit feinen Texturen, zeigte aber Schwächen bei schwierigen Bereichen (z.B. in Schattenzonen).
Der Lixel K1 mit Gaussian Splatting lieferte ein punktwolkenbasiertes Modell mit weichem, flächigem Look, das besonders in Echtzeit beeindruckt.
Ein interessanter Unterschied offenbarte sich bei der Datenmenge und der Performance auf mobilen Endgeräten.
Das Fotogrammetrie-Modell fiel insgesamt deutlich größer aus. In der für uns akzeptablen Qualität betrug die Dateigröße rund 20 MB.
Wir haben festgestellt, dass bei einer Reduktion der Polygonanzahl – etwa zur Optimierung für mobile Anwendungen – sehr schnell sichtbare Qualitätsverluste auftreten, insbesondere bei Rundungen wie den Torbögen, die dann polygonal wirken und an Detail verlieren.
Im Gegensatz dazu war das Gaussian Splatting File bei vergleichbarer visueller Qualität nur etwa 4 MB groß.
Allerdings zeigte sich beim Test auf einem Samsung S20, dass trotz der geringeren Dateigröße die Performance beim Gaussian Splatting leicht hinter der Fotogrammetrie zurückblieb.
Die Framerate auf dem Gerät war bei Gaussian Splatting spürbar niedriger, wenn auch noch vollkommen akzeptabel und für den Anwendungsfall nutzbar.
Das liegt vor allem an der Rendering-Methode von Gaussian Splatting, die durch die Splats eine andere GPU-Belastung erzeugt als klassische polygonale Modelle.
Besonders auf mobilen Endgeräten sollte dieser Punkt berücksichtigt werden, auch wenn die Datenmenge auf dem Papier kleiner erscheint.
Ein wichtiger Aspekt unseres Projekts war der geplante Einsatzzweck des 3D-Scans:
Das Modell sollte später in einer WebAR-Anwendung zum Einsatz kommen, bei der Nutzer das Objekt direkt über das Smartphone oder Tablet im Raum platzieren können – ohne zusätzliche App, rein über den Browser.
Das bedeutet:
Die Dateigröße und Performance sind kritische Faktoren, da das Modell übers Internet geladen werden muss. Hier ist man gezwungen, einen Mittelweg zwischen hoher Qualität und möglichst kleiner Datenmenge zu finden.
Unsere Tests zeigten:
Sowohl das optimierte polygonale Modell aus der Fotogrammetrie als auch das Gaussian Splatting Modell konnten erfolgreich in WebAR integriert werden.
Beide Varianten ließen sich über WebGL ohne Probleme ausliefern, wobei wir bei beiden Versionen besonders auf Kompaktheit geachtet haben.
Erfreulich war, dass das Gaussian Splatting Modell trotz kleinerer Dateigröße eine überzeugende Darstellungsqualität bot und sich ebenfalls reibungslos über WebGL ausliefern ließ – was nicht bei allen modernen 3D-Datenformaten selbstverständlich ist.
Im praktischen Einsatz in WebAR musste man genau hinschauen, um die Unterschiede zwischen beiden Modellen überhaupt zu bemerken.
Beide Versionen waren für die Anwendung gut geeignet und performten stabil, auch auf normalen Smartphones wie unserem Samsung S20.
Für alle, die sich selbst ein Bild machen möchten, haben wir beide Versionen in WebAR-Anwendungen bereitgestellt.
Hier können Sie die Unterschiede direkt im Browser ausprobieren:
➡️ Fotogrammetrie-Modell in WebAR anzeigen
➡️ Gaussian Splatting Modell in WebAR anzeigen
Fotogrammetrie: Hilfsmittel für besseres Alignment – und deren Schattenseiten
Um in der Fotogrammetrie ein möglichst sauberes Alignment der Fotos zu erreichen, haben wir im Projekt einige bewährte Hilfsmittel eingesetzt:
GPS-Modul auf der Kamera:
Unser Fotograf Johannes Müller nutzte ein GPS-Modul, das auf der Kamera montiert war. Dadurch wurden Positions- und Richtungsinformationen direkt in die Metadaten der Bilder geschrieben, was das spätere Alignment in der Fotogrammetrie-Software erheblich erleichtert hat.
Markerbilder (ähnlich QR-Codes):
Zusätzlich haben wir gedruckte Markerbilder auf und um das Exponat platziert. Diese Marker helfen der Software, Bilder korrekt zuzuordnen, vor allem bei Objekten mit homogenen Flächen oder wenig markanten Details.
Diese Hilfsmittel sind in der Fotogrammetrie gängige Praxis – bringen allerdings den Nachteil mit sich, dass die Marker später auf den Texturen sichtbar bleiben und manuell entfernt werden müssen.
Glücklicherweise ist das bei polygonalen 3D-Modellen relativ einfach lösbar, da es etablierte Tools wie Substance Painter gibt, mit denen man direkt auf dem Modell die Texturen retuschieren kann.
Allerdings muss man berücksichtigen, dass die von Fotogrammetrie-Software erzeugten UV-Atlanten oft sehr komplex und unübersichtlich wirken, was das Texturieren etwas anspruchsvoller macht als bei manuell erstellten Modellen mit sauberer UV-Abwicklung.
Ganz anders sieht es bei Gaussian Splatting aus:
Da hier keine klassischen UV-Texturen existieren, sondern die Farbinformationen direkt in den einzelnen Splats gespeichert sind, gibt es aktuell keine etablierten Workflows, um Marker oder Störungen einfach „herauszupainten“.
Während es möglich ist, Splats zu löschen oder zu verschieben, fehlt es bislang an Tools, die eine gezielte Farbkorrektur oder Retusche einzelner Splats ermöglichen.
Die gängigen Bearbeitungstools wie PostShot oder SuperSplat bieten diese Funktionalität derzeit nicht.
Erst nach längerer Recherche sind wir auf ein Blender-Addon namens „3DGS Render Addon“ gestoßen, mit dem es möglich ist, direkt in Blender Gaussian Splats zu bearbeiten und zu übermalen.
Dieses Plugin hat es uns letztlich ermöglicht, die Markerstellen aus dem Splat-Modell zu entfernen – auch wenn der Workflow dabei deutlich experimenteller und fehleranfälliger war als in der klassischen Fotogrammetrie.
Diese Erfahrung zeigt deutlich:
Während der Workflow und Tool-Support in der Fotogrammetrie ausgereift und professionell standardisiert ist, befindet sich Gaussian Splatting noch in einer sehr frühen Phase, insbesondere was Bearbeitung und Retusche angeht.
Was ist jetzt eigentlich besser? Fotogrammetrie oder Gaussian Splatting?
Unsere ehrliche Antwort nach diesem Projekt lautet:
Für uns war Gaussian Splatting die bessere Lösung.
Warum?
Weil es in unserem Anwendungsszenario – dem schnellen Erfassen eines Exponats im Museum für die spätere Nutzung in einer WebAR-Anwendung – vor allem auf zwei Punkte ankam:
Gerade wenn – wie im Museum – ein enger Timeslot für die Erfassung zur Verfügung steht, ist der Geschwindigkeitsvorteil von Gaussian Splatting enorm.
Die geringeren Anforderungen an die Nachbearbeitung machen Gaussian Splatting zudem zu einer deutlich wirtschaftlicheren Lösung, wenn man Arbeitszeit und Produktionskosten berücksichtigt.
Gaussian Splatting ist aktuell noch kein vollwertiger Ersatz für klassische polygonale Workflows.
Die Toollandschaft ist noch jung, viele Anwendungen befinden sich im Beta-Stadium, und die Bearbeitung ist derzeit noch weniger flexibel als bei Polygonmodellen.
Wer also Daten für klassische CAD, Offline-Renderings oder komplexe Materialbearbeitungen benötigt, stößt mit Gaussian Splatting derzeit noch an Grenzen.
Auch bei der Integration in bekannte Engines wie Unreal oder Unity haben wir festgestellt, dass große Gaussian Splatting Files oft problematisch sind – Abstürze oder Performance-Probleme sind hier leider noch Alltag.
Kurioserweise lieferten unsere Tests mit WebGL und Browser-basierten Playern die stabilste und performanteste Lösung, was uns in der Praxis positiv überrascht hat.
Wir sehen Gaussian Splatting als die zukunftsfähigere Technologie, glauben aber, dass man aktuell noch Geduld und Experimentierfreude mitbringen muss, um damit produktiv zu arbeiten.
Fotogrammetrie nutzt klassische Bilddaten zur Rekonstruktion, während Gaussian Splatting Punktwolken mit volumetrischer Darstellung kombiniert, was bei schwierigen Lichtverhältnissen Vorteile bietet.
In unserem Test dauerte die Fotogrammetrie etwa eine Stunde, der LiDAR-Scan mit Gaussian Splatting hingegen nur 15 Minuten.
Je nach Situation: Fotogrammetrie ist bei optimaler Beleuchtung präziser, Gaussian Splatting überzeugt bei Schattenzonen und schwer zugänglichen Bereichen.
Ja, hybride Workflows sind möglich und können die jeweiligen Stärken beider Verfahren optimal nutzen.
Ja, allerdings ist die Tool-Landschaft noch begrenzt. Plugins wie das „3DGS Render Addon“ für Blender ermöglichen erste Bearbeitungen.
Vor allem auf mobilen Geräten kann die GPU-Belastung durch das Splats-Rendering zu geringerer Framerate führen, obwohl die Dateien klein sind.
Sie sind interessierst in die Entwicklung einer Virtual Reality oder 360° Anwendung? Sie haben vielleicht noch Fragen zum Budget und Umsetzung. Melden sie sich gerne bei mir.
Ich freue mich auf Sie
Clarence Dadson CEO Design4real