TU Darmstadt / ULB / TUbiblio

Cluster basiertes Rendern mit verteilten Frame Buffern

Benz, Michael (2005)
Cluster basiertes Rendern mit verteilten Frame Buffern.
Technische Universität Darmstadt
Masterarbeit, Bibliographie

Kurzbeschreibung (Abstract)

Im Laufe der letzten Jahrzehnte sind die Anforderungen an die Graphische Datenverarbeitung rasant gestiegen. Darzustellende Objekte werden zunehmend detaillierter und komplexer um eine immer genauere Simulation der Realität auf dem Bildschirm zu erreichen. Mit Hilfe von Laser Scannern wurden bereits Modelle mit mehr als 300 Millionen Dreiecken generiert. Das entspricht einer Datenmenge von ungefähr 3.7 Gigabyte. Auf einem einzelnen Rechner lässt sich eine solche Datenmenge gar nicht oder nur sehr schwer visualisieren. Aus diesem Grunde bietet es sich an, zur Visualisierung ein Clustersystem zu verwenden. Solche Systeme haben einen hohen Kosten/Nutzen Faktor und stellen eine günstige Alternative zu vergleichbaren Großrechnern dar. Es gibt verschiedene Ziele die man bei der parallelen Bildberechnung anstreben kann. Uns war es wichtig mit niedrigen Vorberechnungszeiten auszukommen und trotzdem eine hohe Bildwiederholrate zu erreichen. Darzustellende Objekte sollten sich zusätzlich animieren und deformieren lassen. In dieser Arbeit werden nun verschiedene Ansätze zur parallelen Bildberechnung vorgestellt und analysiert. Es wird weiterhin ein Rechenmodell für sequentielle Sort-Last Systeme entwickelt, womit sich eine obere Schranke für die möglichen Bildwiederholraten berechnen lässt. Zudem stelle ich zwei Erweiterungen für den Binary Swap Algorithmus vor. Dabei handelt es sich erstens um eine weitere Möglichkeit der Parallelisierung des Algorithmus, und zweitens um adaptive Lastverteilung. Aus diesen Beobachtungen heraus wurde ein Framework entwickelt, womit sich die einzelnen Algorithmen vergleichen und bewerten lassen. Dabei wurde besonders Wert auf die Widerverwendbarkeit und Erweiterbarkeit des Systems gelegt. Zudem wurden verschiedene Erweiterungen der Graphikkarten benutzt um das System weiter zu beschleunigen. In the course of the last decades the requirements to computer graphics visualization rose rapidly. Models and Objects increased in detail and complexity to cope with the demand of realism in simulations. Today it is possible to generate huge models consisting of more than 300 Million triangles, with the help of laser scanners. The storage requirements for such a large object is roughly 3.7 Gigabyte. On an individual computer it is nearly impossible to visualize a model which consists of that much triangles. For this reason it is more feasible to use a cluster of PCs for visualization. In our approach we use a .COTS' Cluster of PCs connected via Gigabit Ethernet. COTS stands for Commodity of the shelf. The advantage of a COTS Cluster compared to a specialized mainframe computer is, that it's cheaper and more versatile. In spite of that, both systems have roughly the same computing power if the program on the cluster is carefully implemented. Therefore a cluster of PCs has a better cost/use factor than a comparable mainframe computer. There are many goals one can aim at in parallel image composition. We strive for very small precomputation times and a high frame rate. It should be possible to deform and animate objects in the scene. Therefore we did not use Out-Of-Core Algorithms due to their high precomputation time. We concentrated on Sort-First, Sort-Middle and Sort-Last systems. In this work different approaches to parallel image composition are analyzed and evaluated. Further a computing model for sequential Sort-Last Systems is developed. With this mathematical system upper bounds for possible frame rates can be computed. Furthermore i present two extensions to the standard Binary Swap algorithm. The first one is a new parallelization approach (e.g. overlapping different stages of the algorithm), the second one is adaptive load balancing. From the theoretical observations a framework was developed, which provides an easy way of comparing the different algorithms. The emphasis was put on reusability and extendability. Several graphic card hardware extensions were used in the implementation to further speed up the implementation.

Typ des Eintrags: Masterarbeit
Erschienen: 2005
Autor(en): Benz, Michael
Art des Eintrags: Bibliographie
Titel: Cluster basiertes Rendern mit verteilten Frame Buffern
Sprache: Deutsch
Publikationsjahr: 2005
Kurzbeschreibung (Abstract):

Im Laufe der letzten Jahrzehnte sind die Anforderungen an die Graphische Datenverarbeitung rasant gestiegen. Darzustellende Objekte werden zunehmend detaillierter und komplexer um eine immer genauere Simulation der Realität auf dem Bildschirm zu erreichen. Mit Hilfe von Laser Scannern wurden bereits Modelle mit mehr als 300 Millionen Dreiecken generiert. Das entspricht einer Datenmenge von ungefähr 3.7 Gigabyte. Auf einem einzelnen Rechner lässt sich eine solche Datenmenge gar nicht oder nur sehr schwer visualisieren. Aus diesem Grunde bietet es sich an, zur Visualisierung ein Clustersystem zu verwenden. Solche Systeme haben einen hohen Kosten/Nutzen Faktor und stellen eine günstige Alternative zu vergleichbaren Großrechnern dar. Es gibt verschiedene Ziele die man bei der parallelen Bildberechnung anstreben kann. Uns war es wichtig mit niedrigen Vorberechnungszeiten auszukommen und trotzdem eine hohe Bildwiederholrate zu erreichen. Darzustellende Objekte sollten sich zusätzlich animieren und deformieren lassen. In dieser Arbeit werden nun verschiedene Ansätze zur parallelen Bildberechnung vorgestellt und analysiert. Es wird weiterhin ein Rechenmodell für sequentielle Sort-Last Systeme entwickelt, womit sich eine obere Schranke für die möglichen Bildwiederholraten berechnen lässt. Zudem stelle ich zwei Erweiterungen für den Binary Swap Algorithmus vor. Dabei handelt es sich erstens um eine weitere Möglichkeit der Parallelisierung des Algorithmus, und zweitens um adaptive Lastverteilung. Aus diesen Beobachtungen heraus wurde ein Framework entwickelt, womit sich die einzelnen Algorithmen vergleichen und bewerten lassen. Dabei wurde besonders Wert auf die Widerverwendbarkeit und Erweiterbarkeit des Systems gelegt. Zudem wurden verschiedene Erweiterungen der Graphikkarten benutzt um das System weiter zu beschleunigen. In the course of the last decades the requirements to computer graphics visualization rose rapidly. Models and Objects increased in detail and complexity to cope with the demand of realism in simulations. Today it is possible to generate huge models consisting of more than 300 Million triangles, with the help of laser scanners. The storage requirements for such a large object is roughly 3.7 Gigabyte. On an individual computer it is nearly impossible to visualize a model which consists of that much triangles. For this reason it is more feasible to use a cluster of PCs for visualization. In our approach we use a .COTS' Cluster of PCs connected via Gigabit Ethernet. COTS stands for Commodity of the shelf. The advantage of a COTS Cluster compared to a specialized mainframe computer is, that it's cheaper and more versatile. In spite of that, both systems have roughly the same computing power if the program on the cluster is carefully implemented. Therefore a cluster of PCs has a better cost/use factor than a comparable mainframe computer. There are many goals one can aim at in parallel image composition. We strive for very small precomputation times and a high frame rate. It should be possible to deform and animate objects in the scene. Therefore we did not use Out-Of-Core Algorithms due to their high precomputation time. We concentrated on Sort-First, Sort-Middle and Sort-Last systems. In this work different approaches to parallel image composition are analyzed and evaluated. Further a computing model for sequential Sort-Last Systems is developed. With this mathematical system upper bounds for possible frame rates can be computed. Furthermore i present two extensions to the standard Binary Swap algorithm. The first one is a new parallelization approach (e.g. overlapping different stages of the algorithm), the second one is adaptive load balancing. From the theoretical observations a framework was developed, which provides an easy way of comparing the different algorithms. The emphasis was put on reusability and extendability. Several graphic card hardware extensions were used in the implementation to further speed up the implementation.

Freie Schlagworte: Large model visualization (LMV), Clustering, Multi-thread rendering, Parallel processing
Zusätzliche Informationen:

71 S.

Fachbereich(e)/-gebiet(e): nicht bekannt
20 Fachbereich Informatik
20 Fachbereich Informatik > Graphisch-Interaktive Systeme
Hinterlegungsdatum: 16 Apr 2018 09:04
Letzte Änderung: 16 Apr 2018 09:04
PPN:
Export:
Suche nach Titel in: TUfind oder in Google
Frage zum Eintrag Frage zum Eintrag

Optionen (nur für Redakteure)
Redaktionelle Details anzeigen Redaktionelle Details anzeigen