TU Darmstadt / ULB / TUbiblio

Photometrisch konsistente Radiositysimulation und Bildwiedergabe in Virtual und Augmented Reality Anwendungen

Kresse, Wolfram (2004)
Photometrisch konsistente Radiositysimulation und Bildwiedergabe in Virtual und Augmented Reality Anwendungen.
Technische Universität Darmstadt
Dissertation, Erstveröffentlichung

Kurzbeschreibung (Abstract)

In der Computergrafik ist man meist bestrebt, möglichst realistische Bilder zu erzeugen und bedient sich hierbei üblicherweise der Lichtsimulation, um Beleuchtungsverhältnisse und Schattensituationen zu berechnen. Das Ergebnis einer solchen Simulation ist jedoch oft nur ein nettes Bild ohne physikalische Aussagekraft. Eine physikalisch korrekte Simulation, und damit also photometrische und colorimetrische Konsistenz sind daher von essentieller Wichtigkeit, um auf Basis von Simulationsdaten Entscheidungen treffen zu können. Aber selbst das Vorhandensein korrekt simulierter Daten reicht noch nicht aus, um Design, Ablesbarkeit oder gar Blendung wirklich beurteilen zu können, da insbesondere bei der Bildwiedergabe auf unterschiedlichen Displaysystemen Farben und Helligkeiten jedesmal unterschiedlich sind. Das Konzept der photometrischen und colorimetrischen Konsistenz muß daher auf die Darstellung erweitert werden, indem verwendete Displays entsprechend kalibriert werden, sodaß eine 1:1-Wiedergabe der simulierten Daten ermöglicht wird – sofern das verwendete Display entsprechende Helligkeiten wiedergeben kann. Ein dritter Aspekt ist das aktuelle Gebiet der Augmented Reality, bei der in Fotos realer Szenen virtuelle Objekte eingeblendet werden. Diese Objekte wirken meist sehr künstlich, da sie unabhängig von den realen Lichtverhältnissen erzeugt und in die Szene eingefügt werden. Eine Rekonstruktion der tatsächlichen Beleuchtungsverhältnisse aus dem Foto ist daher erforderlich, um die virtuellen Objekte konsistent zur realen Beleuchtung auszuleuchten, und sie so nahtlos in ein vorliegendes Foto zu integrieren. Die offenen Problemstellungen die sich hieraus ergeben wurden in dieser Arbeit untersucht, sowie effiziente Lösungen entwickelt und realisiert: Ausgehend von den Rohdaten eines C-A-D-Modells oder der Pixelwerte in einem Foto wurden stark vereinfachte Aufbereitungs- bzw. Rekonstruktionsmethoden für Geometrie, Materialien und Lichteigenschaften realisiert. Diese dienen dem in dieser Arbeit entwickelten Lichtsimulationssystem als Eingabedaten, welches komplexe Szenen mit effizientem, strukturiertem Refinement und verläßlicher Sichtbarkeitserkennung simuliert. Die so berechneten Daten werden bei dem Schritt der Bildwiedergabe dargestellt, wobei unterschiedliche Displays anhand eines neuartigen automatischen Displaykalibrierungsverfahrens bezüglich Farbraum, Schwarzwert, Gammaverhalten und Helligkeitsausgleich kalibriert werden, wodurch unabhängig von der Art des Displays sowohl photometrisch konsistente Daten 1:1 wiedergegeben, als auch unkalibrierte Informationen wie z.B. Fotos oder Präsentationsfolien auf unterschiedlichen Displays identisch dargestellt werden können. Durch die gesamte Pipeline wurde die Erhaltung der photometrischen und colorimetrischen Konsistenz, und damit quantitative Korrektheit sichergestellt sowie die Anwendbarkeit in den einzelnen Schritten durch entsprechende Automatisierung entscheidend verbessert. Weiterer wichtige Punkte dieser Arbeit sind eine kontrollierbare, d.h. bedienbare Lichtsimulation, die flexibel auf unterschiedliche Benutzeranforderungen eingehen kann, sowie die Integration von AR-Applikationen in die konsistente Visualisierungspipeline.Hieraus ergibt sich ein umfassendes Konsistenz-Framework als geschlossene Lösung zur Simulation und Wiedergabe unterschiedlicher Eingangsdaten.

Typ des Eintrags: Dissertation
Erschienen: 2004
Autor(en): Kresse, Wolfram
Art des Eintrags: Erstveröffentlichung
Titel: Photometrisch konsistente Radiositysimulation und Bildwiedergabe in Virtual und Augmented Reality Anwendungen
Sprache: Deutsch
Referenten: Encarnação, Prof. Dr-I José L. ; Seidel, Prof. Dr. Hans-Peter
Berater: Encarnação, Prof. Dr-I José L.
Publikationsjahr: 9 August 2004
Ort: Darmstadt
Datum der mündlichen Prüfung: 27 Oktober 2003
URL / URN: urn:nbn:de:tuda-tuprints-4729
Kurzbeschreibung (Abstract):

In der Computergrafik ist man meist bestrebt, möglichst realistische Bilder zu erzeugen und bedient sich hierbei üblicherweise der Lichtsimulation, um Beleuchtungsverhältnisse und Schattensituationen zu berechnen. Das Ergebnis einer solchen Simulation ist jedoch oft nur ein nettes Bild ohne physikalische Aussagekraft. Eine physikalisch korrekte Simulation, und damit also photometrische und colorimetrische Konsistenz sind daher von essentieller Wichtigkeit, um auf Basis von Simulationsdaten Entscheidungen treffen zu können. Aber selbst das Vorhandensein korrekt simulierter Daten reicht noch nicht aus, um Design, Ablesbarkeit oder gar Blendung wirklich beurteilen zu können, da insbesondere bei der Bildwiedergabe auf unterschiedlichen Displaysystemen Farben und Helligkeiten jedesmal unterschiedlich sind. Das Konzept der photometrischen und colorimetrischen Konsistenz muß daher auf die Darstellung erweitert werden, indem verwendete Displays entsprechend kalibriert werden, sodaß eine 1:1-Wiedergabe der simulierten Daten ermöglicht wird – sofern das verwendete Display entsprechende Helligkeiten wiedergeben kann. Ein dritter Aspekt ist das aktuelle Gebiet der Augmented Reality, bei der in Fotos realer Szenen virtuelle Objekte eingeblendet werden. Diese Objekte wirken meist sehr künstlich, da sie unabhängig von den realen Lichtverhältnissen erzeugt und in die Szene eingefügt werden. Eine Rekonstruktion der tatsächlichen Beleuchtungsverhältnisse aus dem Foto ist daher erforderlich, um die virtuellen Objekte konsistent zur realen Beleuchtung auszuleuchten, und sie so nahtlos in ein vorliegendes Foto zu integrieren. Die offenen Problemstellungen die sich hieraus ergeben wurden in dieser Arbeit untersucht, sowie effiziente Lösungen entwickelt und realisiert: Ausgehend von den Rohdaten eines C-A-D-Modells oder der Pixelwerte in einem Foto wurden stark vereinfachte Aufbereitungs- bzw. Rekonstruktionsmethoden für Geometrie, Materialien und Lichteigenschaften realisiert. Diese dienen dem in dieser Arbeit entwickelten Lichtsimulationssystem als Eingabedaten, welches komplexe Szenen mit effizientem, strukturiertem Refinement und verläßlicher Sichtbarkeitserkennung simuliert. Die so berechneten Daten werden bei dem Schritt der Bildwiedergabe dargestellt, wobei unterschiedliche Displays anhand eines neuartigen automatischen Displaykalibrierungsverfahrens bezüglich Farbraum, Schwarzwert, Gammaverhalten und Helligkeitsausgleich kalibriert werden, wodurch unabhängig von der Art des Displays sowohl photometrisch konsistente Daten 1:1 wiedergegeben, als auch unkalibrierte Informationen wie z.B. Fotos oder Präsentationsfolien auf unterschiedlichen Displays identisch dargestellt werden können. Durch die gesamte Pipeline wurde die Erhaltung der photometrischen und colorimetrischen Konsistenz, und damit quantitative Korrektheit sichergestellt sowie die Anwendbarkeit in den einzelnen Schritten durch entsprechende Automatisierung entscheidend verbessert. Weiterer wichtige Punkte dieser Arbeit sind eine kontrollierbare, d.h. bedienbare Lichtsimulation, die flexibel auf unterschiedliche Benutzeranforderungen eingehen kann, sowie die Integration von AR-Applikationen in die konsistente Visualisierungspipeline.Hieraus ergibt sich ein umfassendes Konsistenz-Framework als geschlossene Lösung zur Simulation und Wiedergabe unterschiedlicher Eingangsdaten.

Alternatives oder übersetztes Abstract:
Alternatives AbstractSprache

Computer graphics strives to create realistic images, often using light simulation methods to compute lighting and shadows. The result, however, often merely consists of a nice image without any physical significance. Therefore, a physically correct simulation, and thus photometric and colorimetric consistency are essential to be able to base design decisions on simulated data. But even the availability of correct data is insufficient to really evaluate and assess aspects such as readability or glare of car instruments, since presentation of the computed data on various display systems results in different color and brightness for each display. The concept of photometric and colorimetric consistency therefore has to be extended to the display step by calibrating all involved displays to ensure a 1:1reproduction of the simulated data. Another aspect lies in the emerging area of augmented reality, in which photographs are augmented with virtual objects. These objects usually appear very artificial since the real illumination situation present in the picture is not taken into account. Reconstructing the real lighting situation therefore is required to illuminate the virtual objects accordingly and integrate them seamlessly and photometrically consistent into the real scenario. Within this thesis, the resulting problems are investigated, and efficient solutions for them are developed and implemented: Starting from the raw data of a CAD model or pixel values in a photograph, the data preparation and reconstruction steps are simplified significantly. The radiosity system for light simulation developed in this thesis then uses this input data for the simulation of complex scenes with efficient, structured mesh refinement and reliable visibility classification. The simulated data can then be represented on different display types, which will be calibrated concerning color gamut, black value, gamma response and uniformity in intensity using a novel and automatic display calibration method developed in this thesis, enabling consistent reproduction of physically correct data, as well as identical display of uncalibrated information such as photographs or presentation slides. The work of this thesis enables photometric and colorimetric consistency throughout the whole visualisation pipeline, and therefore quantitative correctness, and facilitates usability of the individual steps by automated control of both simulation and calibration, resulting in an encompassing consistency framework as a closed solution for the simulation and representation of diverse input data.

Englisch
Freie Schlagworte: photometrische Konsistenz, immersive Displays, Stereoverfahren, Projektionstechnologien, Photometry, Virtual and augmented reality (VR/AR), Stereoscopical projections, Camera calibration, Color analysis
Schlagworte:
Einzelne SchlagworteSprache
photometric consistency, immersive displays, stereo methods, projection technologyEnglisch
Zusätzliche Informationen:

11 MB; 232 S.

Sachgruppe der Dewey Dezimalklassifikatin (DDC): 000 Allgemeines, Informatik, Informationswissenschaft > 004 Informatik
Fachbereich(e)/-gebiet(e): 20 Fachbereich Informatik
20 Fachbereich Informatik > Graphisch-Interaktive Systeme
Hinterlegungsdatum: 17 Okt 2008 09:21
Letzte Änderung: 21 Nov 2023 08:10
PPN:
Referenten: Encarnação, Prof. Dr-I José L. ; Seidel, Prof. Dr. Hans-Peter
Datum der mündlichen Prüfung / Verteidigung / mdl. Prüfung: 27 Oktober 2003
Schlagworte:
Einzelne SchlagworteSprache
photometric consistency, immersive displays, stereo methods, projection technologyEnglisch
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen