2004
Permanent URI for this collection
Browse
Browsing 2004 by Issue Date
Now showing 1 - 7 of 7
Results Per Page
Sort Options
Item High-Quality Visualization and Filtering(Hadwiger, 2004) Hadwiger, MarkusDie meisten Renderingmethoden in der Visualisierung und Computergraphik konzentrieren sich entweder auf die Bildqualität; und generieren <i>korrekte</i> Bilder mit nicht mehr interaktiven Bildraten; oder opfern die Darstellungsqualität; um interaktive Performance zu erreichen. Andererseits erlaubt es die momentane Entwicklung im Bereich der Graphikhardware zunehmend; die Qualität von Offline Rendering-Ansätzen mit interaktiver Performance zu kombinieren. Um dies auch tatsächlich nutzen zu können; müssen neue und angepasste Algorithmen entwickelt werden; die die spezielle Architektur von Graphikhardware berücksichtigen. Das zentrale Thema dieser Arbeit ist; hohe Renderingqualität mit Echtzeitfähigkeit bei der Visualisierung von diskreten Volumendaten auf regulären dreidimensionalen Gittern zu kombinieren. Ein wesentlicher Teil beschäftigt sich mit dem generellen Filtern von Texturen unabhängig von deren Dimension. Mit Hilfe der Leistungsfähigkeit heutiger PC Graphikhardware werden Algorithmen demonstriert; die einen Qualitätsstandard erreichen; der bislang nur im Offline Rendering möglich war. Eine grundlegende Operation in der Visualisierung und Computergraphik ist die Rekonstruktion einer kontinuierlichen Funktion aus einer diskreten Darstellung mittels Filterung. Diese Arbeit stellt eine Methode zur Filterung mit Hilfe von Graphikhardware vor; die prinzipiell beliebige Faltungskerne auswerten kann. Die Hauptanwendung ist hierbei die Vergrösserung von Texturen direkt während dem Rendern. Darüber hinaus kann sie aber auch mit MIP-mapping zur Texturverkleinerung kombiniert werden. Im Bereich der Volumenvisualisierung stellt diese Arbeit weiters einen Ansatz zur Echtzeitdarstellung von segmentierten Daten vor. Segmentierte Volumendaten haben speziell in medizinischen Anwendungen hohe Bedeutung. Darüber hinaus stellt diese Arbeit Ansätze zum nicht-photorealistischen Rendern mit hoher Qualität vor; die sich besonders gut eignen; um die Aufmerksamkeit des Betrachters auf bestimmte Fokusbereiche zu lenken. Weiters werden Isoflächen mit Hilfe eines Deferred- Shading Ansatzes dargestellt; wobei differentialgeometrische Eigenschaften; wie beispielsweise die Krümmung der Oberfläche; in Echtzeit berechnet und für eine Vielzahl von Effekten verwendet werden können. Wir schliessen aus den erreichten Resultaten; dass es möglich ist; die Lücke zwischen Offline Rendering mit hoher Qualität auf der einen Seite; und Echtzeitrendering auf der anderen Seite; zu schliessen; ohne dabei notwendigerweise die Qualität zu beeinträchtigen. Besonders wichtig ist dies im Bereich des Renderings von Volumendaten; das sehr oft hohe Qualitätsansprüche hat; etwa bei der Darstellung von medizinischen Daten. - Most rendering methods in visualization and computer graphics are focusing either on image quality in order to produce<i> correct</i> images with non-interactive rendering times; or sacrifice quality in order to attain interactive or even real-time performance. However; the current evolution of graphics hardware increasingly allows to combine the quality of off-line rendering approaches with highly interactive performance. In order to do so; new and customized algorithms have to be developed that take the specific structure of graphics hardware architectures into account. The central theme of this thesis is combining high rendering quality with real-time performance in the visualization of sampled volume data given on regular three-dimensional grids. More generally; a large part of this work is concerned with high-quality filtering of texture maps; regardless of their dimension. Harnessing the computational power of consumer graphics hardware available in off-the-shelf personal computers; algorithms that attain a level of quality previously only possible in off-line rendering are introduced. A fundamental operation in visualization and computer graphics is the reconstruction of a continuous function from a sampled representation via filtering. This thesis presents a method for using completely arbitrary convolution filters for high-quality reconstruction exploiting graphics hardware; focusing on real-time magnification of textures during rendering. High-quality filtering in combination with MIP-mapping is also illustrated in order to deal with texture minification. Since texturing is a very fundamental operation in computer graphics and visualization; the resulting quality improvements have a wide variety of applications; including static texture-mapped objects; animated textures; and texture-based volume rendering. The combination of high-quality filtering and all major approaches to hardwareaccelerated volume rendering is demonstrated. In the context of volume rendering; this thesis introduces a framework for high-quality rendering of segmented volume data; i.e.; data with object membership information such as segmented medical data sets. High-quality shading with per-object optical properties such as rendering modes and transfer functions is made possible; while maintaining real-time performance. The presented method is able to filter the boundaries between different objects on-the-fly; which is non-trivial when more than two objects are present; but important for high-quality rendering. Finally; several approaches to high-quality non-photorealistic volume rendering are introduced; a concept that is especially powerful in combination with segmented volume data in order to focus a viewer s attention and separate focus from context regions. High-quality renderings of isosurfaces are obtained from volumetric representations; utilizing the concept of deferred shading and deferred computation of high-quality differential implicit surface properties. These properties include the gradient; the Hessian matrix; and principal curvature magnitudes as well as directions. They allow high-quality shading and a variety of nonphotorealistic effects building on implicit surface curvature. We conclude that it is possible to bridge the gap between traditional high-quality off- line rendering and real-time performance without necessarily sacrificing quality. In an area such as volume rendering that can be very demanding with respect to quality; e.g.; in medical imaging; but whose usefulness increases significantly with higher interactivity; combining both high quality and high performance is especially important.Item Visual Analysis of Complex Simulation Data using Multiple Heterogenous Views(Doleisch, 2004) Doleisch, HelmutComputational Fluid Dynamics (CFD) Simulationen sind in letzter Zeit in immer häufigerem Einsatz in einer Vielzahl von unterschiedlichsten Anwendungsgebieten. Die Anwendungen reichen dabei vom Einsatz in der Automobilindustrie über Anwendungen im Gebiet der Aerodynamik bis hin zu Beispielen aus Umwelt- Wetter- und Klimasimulationen (und vielen anderen mehr). CFD Simulationen werden aus vielen Gründen immer beliebter und öfter eingesetzt unter anderem weil Phänomene leichter durch Simulation am Computer untersucht werden können oder auch weil auf Computern berechnete Simulationen normalerweise die Design- und Entwicklungsprozesse von vielen Produkten erheblich beschleunigen. Typische CFD Simulationen erzeugen sehr große Mengen an Ergebnisdaten. Außerdem sind die Ergebnisse normalerweise auch zeitabhängig und multivariat was bedeutet dass eine Vielzahl an verschiedenen Datenattributen für jeden Datenpunkt im Raum und für jeden Zeitschritt der Simulation vorhanden ist. Beispiele von solchen Datenattributen sind Strömungsvektoren und -geschwindigkeiten Druck Temperatur und Konzentrationen von bestimmten chemischen Substanzen. Die Analyse von solchen Ergebnisdatensätzen ist oft nicht einfach für die Ingenieure die die Daten untersuchen und bewerten sollen. Dabei kann Visualisierung unterstützend eingesetzt werden. Die meisten heute verwendeten Visualisierungsmethoden für Daten welche aus einer 3D Strömungssimulation resultieren verwenden entweder geometrische Strömungsvisualisierungsmethoden (wie z.B.: Streamlines Isosurfaces etc.) oder sogenannte merkmals-basierte Methoden wo zuerst Merkmale (Features) in den Daten extrahiert werden müssen und dann Feature Tracking durchgeführt wird. Allerdings erlauben diese Ansätze normalerweise keine interaktive und einfache Steuerung des Visualisierungsprozesses. Im Speziellen kann nicht interaktiv festgelegt werden welche Daten gerade von größtem Interesse sind. Die Spezifikation der Merkmale ist normalerweise nur (semi-)automatisch möglich. Das zentrale Thema dieser Dissertation ist die Entwicklung eines flexiblen Systems für die interaktive visuelle Analyse von großen multi-dimensionalen und zeitabhängigen Ergebnissen von Strömungssimulationen. Dazu werden mehrere bekannte Methoden und Technologien aus den Bereichen der Visualisierung von wissenschaftlichen Daten (Scientific Visualization SciVis) und der Informationsvisualisierung (Information Visualization InfoVis) kombiniert um daraus einen neuen Ansatz für ein merkmals-basiertes Visualisierungskonzept abzuleiten. Das System in dem dieser Ansatz exemplarisch angewandt und entwickelt wird heißt SimVis. Die besondere Stärke des hier neu präsentierten Visualisierungsansatzes liegt in einer ausgewogenen Kombination einer Vielzahl von kleinen Innovationen. Diese alleine sind nicht alle komplett neu bzw. wurden sie schon in anderen isolierten Lösungen und Ansätzen verwendet (teilweise in anderen Kombinationsformen). Allerdings stellt die hier präsentierte Form der Kombination dieser Einzellösungen einen neuen Ansatz dar welcher gleichzeitig maximale Flexibilität auf der einen Seite und einen stabilen Analyseprozess auf der anderen Seite ermöglicht. Die einzelnen Innovationen die zu diesem neuen Ansatz beitragen beinhalten (1) eine Kombination von Ansichten und Methoden aus SciVis und InfoVis (2) ein ausgeklügeltes Schema zur Interaktion basierend auf erweiterten Brushing-Methoden (3) unscharfe Klassifikationen zur Merkmalsspezifikation (auch zusammengefügte Spezifikationen sind möglich) (4) Fokus+Kontext Visualisierungsmethoden (speziell für die 3D Darstellungen) (5) eine spezielle Behandlung der Zeit die eine besondere Datendimension darstellt und (6) das Ermöglichen eines interaktiven Visualisierungsprozesses auch für relativ große Datenmengen auf Standard PC-Systemen. Zusätzlich ermöglicht dieser neue Ansatz durch die Integration von Attributableitungen (eine Methode um interaktiv neue Datendimensionen basierend auf Informationen aus den bisher bestehenden Dimensionen abzuleiten) und erweiterten Brushing-Methoden eine Spezifikation von zeitabhängigen Merkmalen. Diese Merkmale sind speziell von der zeitlichen Dimension der Daten abhängig. Abschließend werden sowohl zwei Fallstudien aus dem Bereich der Automobilindustrie präsentiert als auch die generelle Anwendbarkeit des hier neu entwickelten Ansatzes gezeigt. So lassen sich in SimVis leicht Daten aus den verschiedensten Anwendungsbereichen mit den selben Methoden untersuchen und analysieren z.B. aus dem Bereich der Aerodynamik von Klima und Wettersimulationen von Simulationen von Spritzgussverfahren aus medizinischen Anwendungsgebieten usw. Ein Vergleich mit herkömmlichen Methoden zur Visualisierung von Strömungssimulationsdaten zeigt dass SimVis eine neue zusätzliche Technologie zur raschen und verständlichen Analyse zur Verfügung stellt. - Computational Fluid Dynamics (CFD) simulation has become very popular and is used in a wide variety of applications. Applications range from the automotive industry to aerodynamics to environmental and weather simulation and many more. CFD simulation is popular for several reasons including that many phenomena can be studied more easily through simulation. Measuring approaches might influence and change flow behavior. Computational simulation speeds up the design and development process of many products. Typically CFD simulation results in very large data sets. Results are also usually timedependent and multi-variate including many attributes for each simulated point in space and time e.g. flow vectors pressure temperature mass fraction values of chemical substances etc. Analyzing such data sets is not an easy task for the engineers who have to investigate and evaluate the results. Visualization can be used to support the exploration and analysis of these data sets. Most current visualization methods for data from 3D flow simulation focus either on displaying geometric objects (e.g. streamlines isosurfaces etc.) or on feature-based methods employing special feature extraction and tracking techniques. However these approaches usually do not allow the user to easily and interactivly investigate the multi-dimensional interrelations between different data attributes. The feature extraction process is usually done in a (semi-)automatic way not allowing for interactive changes of the feature specification. The central theme of this thesis is to provide a flexible framework for interactive visual analysis of large multi-dimensional and time-dependent data sets resulting from flow simulation. In other words the focus of this work is to develop a framework which combines multiple rather well-known concepts from scientific and information visualization to build a new feature-based visualization framework which is based on user-driven visual analysis. This framework is called SimVis. The major strength of the newly presented visualization approach lies in a balanced combination of several different innovations. These by themselves are not all completely new and some may (to a certain extend) also be found as isolated solutions in other approaches (or in other combinations). Nevertheless in the combinations proposed here each component builds an integral part of the framework which combines different individual solutions to attain maximal flexibility while still providing solid and stable analysis tools. The innovations that contribute to this interactive feature specification framework include (1) the combination of views and methods from scientific visualization and information visualization (2) a sophisticated interaction scheme allowing for fast and flexible information drill-down by means of advanced brushing mechanisms (3) a fuzzy notion of feature specification and composite specifications (4) enabling focus+context visualization (especially in the spatial domain of 3D rendering) (5) providing proper access to the special data dimension of time and (6) coping with interactive visualization of relatively large data sets on standard PCs. Also with the help of integrating attribute derivation (a mechanism for interactive iii calculation of derived data attributes) and advanced brushing mechanisms the specification of time-dependent features i.e. features inherently depending on the special data dimension of time is realized. Finally two case studies are presented that demonstrate that the framework presented here is indeed generally applicable (e.g. to the automotive industry aerodynamics molding climate simulations etc.) and how it compares to other solutions and how it adds additional information and value to current methods.Item Curved Planar Reformation for Vessel Visualization(Kanitsar, 2004) Kanitsar, ArminDie Einführung hoch auflösender Computer Tomographen erlaubt die Akquisition immer feinerer anatomische Details. Dadurch werden neue Untersuchungsmethoden ermöglicht. Die Erfassung von Gefäßstrukturen mittels Computer Tomographie; genannt Computer Tomographie Angiographie (CTA); ist eine der wichtigsten Anwendungen dieser neuen Verfahren. Die rasante Entwicklung im Bereich der Akquisitionstechniken erlaubt hoch qualitative und nahezu isotropische Daten in sehr kurzer Aufnahmedauer (40 70s). Die anschließende Befundung der Schichtbilder (bis zu 1500 Einzelbilder!) ist jedoch langwierig. Dies bedeutet; dass die Nachbearbeitung der akquirierten Daten zum limitierenden Faktor in der klinischen Routine wurde. Computer unterst ützte Nachbearbeitung und Visualisierung wird daher zu einem integralen Bestandteil dieser Anwendungen. Der Schwerpunkt dieser Arbeit ist die klinisch relevante Visualisierung von kontrastierten Blutgefäßen in Computer-Tomographie-Angiograpie-Daten. Verschiedene Methoden zur Darstellung des Gefäßquerschnittes durch Curved Planar Reformation (CPR) werden vorgeschlagen. Ein robustes Verfahren zur Extraktion der Gefäßzentralachse wird erläutert. Des weiteren werden verschiedene Visualisierungs-Algorithmen anhand eines komplexen Volumsdatensatz untersucht. Einführend werden Untersuchungsverfahren großer Bildserien aus CTA Untersuchungen der unteren Extremitäten vorgestellt. Zwei verschiedene Ansätze zur Diagnose von Gefäßanomalien peripherer Gefäße (Stenosen; Verschlüsse; Aneurysmen und Verkalkungen) werden vorgestellt. Ein semi-automatisches Verfahren zur Berechnung der Gefäßzentralachse wird präsentiert. Weiters wird eine interaktive Segmentierungsmethode für die Detektion von Knochen vorgeschlagen. Basierend auf der abgeleiteten Gefäßachse werden verschiedene Visualisierungsans ätze vorgeschlagen. Eine Möglichkeit röhrenartige Strukturen darzustellen ist die Extraktion und Darstellung einer längsverlaufenden Schnittebene entlang der Zentralachse. Dadurch werden Durchmesser (z.B. das Gefäßlumen) und mögliche Anomalien (z.B. Verkalkungen) in dieser Schnittebene sichtbar. Dieses Verfahren wird als Curved Planar Reformation (CPR) bezeichnet. Es werden drei CPR-Methoden beschrieben: die Projizierende CPR; die Gestreckte CPR und die Ausgerichtete CPR. Die unterschiedlichen Eigenschaften der Darstellungen werden anhand eines Phantom Datensatzes gezeigt. Schwachpunkte des CPR Verfahrens konnten durch die Einführung von Erweiterungen verbessert werden. Die Schicht CPR erhöht die Toleranz gegenüber ungenauen Gefäßachsen. Mittels rotierbarer CPR kann der gesamte Querschnitt des Gefäßes erfasst werden. Die Multiple Gefäß CPR erlaubt die Darstellung ganzer Gefäßbäume. Eine weitere Verbesserung des CPR Verfahrens kann durch die Auflösung räumlicher Beziehungen erreicht werden. Es werden zwei neue CPR Methoden vorgestellt; welche dadurch eine effiziente Darstellung von Gefäßen erlauben. Die Spiralförmige CPR stellt das gesamte Gefäßvolumen in einem einzelnen Bild dar. Die Extraktion der Schnittebene basiert nicht mehr auf einer erzeugenden Geraden sondern auf zwei ineinander verschachtelten Spiralen. Die zweite Methode bietet die Möglichkeit den gesamten Gefäßbaum überschneidungsfrei darzustellen. Dies wird durch geringe Rotationen an den Bifurkationen realisiert. Die benötigte Deformation wird durch ein rekursives Verfahren bestimmt. Der letzte Teil dieser Arbeit beschäftigt sich mit der generellen Akquisition komplexer Strukturen mittels Computer Tomographie. Im Gegensatz zu herkömmlichen Modellierungs- und Aufnahmeverfahren ist die geometrische Komplexität des untersuchten Gegenstandes irrelevant. Hohlräume; Löcher; verschachtelte Strukturen und Oberflächendetails werden korrekt abgebildet. Lediglich die; sich stetig verbessernde; Auflösung des Computer Tomographen stellt eine natürliche Einschränkung hinsichtlich der Qualität der akquirierten Daten dar. Die Vorteile dieses Modellierungsverfahren werden anhand eines Christbaum Modells demonstriert; welches die Charakteristika eines komplexen Objektes erfüllt. Die Anwendung von bestehenden Volumsvisualisierungstechniken auf diesen Datensatz ist unmittelbar möglich. Unter anderem wird an diesem Datensatz die Robustheit der CPR Darstellungen demonstriert. - With the introduction of high-resolution computed tomography modalities the acquisition of fine anatomical details is made possible. This allows new investigation procedures. The coverage of vascular structures using computed tomography; i.e. computed tomography angiography (CTA); is one of the most important applications in this area. Recent developments in the field of acquisition techniques provide high-quality; near isotropic data within small acquisition times (40 70s). The subsequent evaluation of the cross-sectional images (up to 1500 images!) is a time-consuming process. Therefore post-processing of acquired data was found out to be the bottleneck in the clinical routine. Computer aided post-processing and visualization becomes an essential part of this application. The main focus of this work is the clinical relevant visualization of vascular structures form computed tomography angiography data. Different methods for visualizing the vessel lumen by means of curved planar reformation are proposed. The appropriate center line extraction for the vessel is discussed. In addition to that a complex volumetric data set is presented and evaluated by different visualization algorithms. Investigation methods of large image sequences of the lower extremities are discussed. Two different approaches for peripheral vessel diagnosis dealing with stenosis and calcification detection are introduced. A semi-automated vesseltracking tool for centerline extraction and an interactive segmentation tool for bone removal is discussed. Based on the deduced central axis different visualization techniques are proposed. One way to display tubular structures for diagnostic purposes is to generate longitudinal cross-sections in order to show their lumen; wall; and surrounding tissue in a curved plane. This process is called curved planar reformation (CPR). Three different methods to generate CPR images are described: Projected CPR; stretched CPR; and straightened CPR. A tube-phantom was scanned with Computed Tomography (CT) to illustrate the properties of the different CPR methods. Targeting the drawbacks of visualizing tubular structures using CPRs three enhancements to the basic methods are introduced. The thick-CPR method improves the tolerance of imprecise vessel centerlines. A rotating-CPR covers the complete vessel cross section. The multi-path-CPR displays entire vascular trees. A further improvement of CPR techniques is accomplished by the relaxation of spatial coherence. Two advanced methods for efficient vessel visualization; based on the concept of CPR; are introduced. A helical CPR visualizes the interior of a vessel in a single image. The curved plane extraction is no longer based on a generating line; but on two interleaved spirals. Furthermore; a method to display an entire vascular tree without mutually occluding vessels is presented. Minimal rotations at the bifurcations avoid occlusions. For each viewing direction the entire vessel structure is visible. The estimation of the necessary deformation is done in a recursive manner. The final part of this work reports on using computed tomography as a model acquisition tool for complex objects in computer graphics. Unlike other modeling and scanning techniques the complexity of the object is irrelevant in CT; which naturally enables to model objects with; for example; concavities; holes; twists or fine surface details. The only limitation of this technique is the steadily increasing resolution of computed tomography modalities. For demonstration purposes a Christmas tree is scanned. It exhibits high complexity which is difficult or even impossible to handle with other techniques. The application of existing volume visualization methods is straight forward. The robustness of CPR techniques is demonstrated on this dataset.Item Object Hierarchies for Efficient Rendering(Mueller, 2004) Mueller, GordonThe efficient synthesis of computer generated images for large three-dimensional modelsis one of the major challenges of computer graphics research. Despite the rapid growth ofavailable computational power of todays microprocessors and highly optimized graphics chipsused for efficient rendering of graphical primitives, this growth was even outbeaten by the sheerincrease of complexity of three-dimensional data sets to be visualized.This growth of complexity made it necessary to invent acceleration schemes for differenttypes of rendering algorithms. A common basic idea is to build spatial data structures thatallow for efficient spatial retrieval of primitives in the rendering process. This retrieval may beused to detect visible objects efficiently or to detect invisible objects prior before sending themthrough the graphics pipeline, such that expensive computations like shading or rasterizationmay be omitted.This thesis examines different acceleration schemes in detail and analyses related data structuresfor their utility within several rendering algorithms. We focus on acceleration schemes thatmake use of object hierarchies, i.e. scene geometry that is managed hierarchically.We also present a novel technique for automated generation of object hierarchies. The essentialidea of our algorithm is to build the hierarchy such that the average rendering costs whentraversing the scene hierarchy are minimized. This technique applies successfully in the fieldsof photorealisitic visualization using ray tracing and radiosity. First, we achieve a significantimprovement of run-time efficiency by accelerating the visibility tests. Also, we demonstratethat the generated object hierarchies may ideally be used to approximate the computation oflight exchange between complex distant scene objects for radiosity with clustering. Only theuse of objects clusters made it feasible to run an radiosity computation on huge data sets.This thesis also covers the area of real-time rendering, especially with a deeper look at occlusionculling algorithms, which have attracted much attention in the recent past. Occlusionculling schemes try to detect occluded scene geometry early to remove these objects from thegraphics pipeline. We describe the usefulness of object hierarchies within the occlusion cullingprocess and compare different hierarchy generation schemes. By the utilization of our new hierarchygeneration scheme we could achieve a significant increase in frame rate when renderingcomplex scenes.Finally, we present a system for interactive visualization of huge data sets by combiningocclusion culling and ray casting. This system increases the frame rate further compared toclassical occlusion culling. Additionally, our method has only a minimal overhead for sceneswith almost no occlusion. Occlusion tests are automatically activated and de-activated whenneeded. - Die effiziente Bildsynthese für die computergenerierte Darstellung grosser dreidimensionalerDatenmodelle, ist nach wie vor eine der grössten Herausforderungen für die Forschungim Bereich der Computergrafik. Trotz des starken Wachstums der verfügbaren Rechenresourcendurch neue Mikroprozessoren und hochgradig optimierte Grafikchips, welche die effizienteDarstellung einfacher grafischer Grundobjekte beschleunigen, wurde doch dieses Wachstumnoch durch den noch gewaltigeren Anstieg der Komplexität der 3D-Modelle geschlagen, dievisualisiert werden sollen.Dieses Problem hat es notwendig gemacht, Beschleuningungstechniken für unterschiedlicheRenderingverfahren zu entwickeln. Eine Grundidee hierbei besteht darin, Datenstrukturen aufzubauen,die es dem Darstellungsprozess ermöglichen, effizient die relative räumliche Lage vonDarstellungsobjekten abzuleiten. Sichtbare Objekte lassen sich so leichter identifizieren, bzw.nicht-sichtbare Objekte frühzeitig vor der Weiterverarbeitung eliminieren, um dadurch weitereaufwendige Berechnungen, wie etwa die Beleuchtungsrechnung oder die Rasterisierung, zuunterdrücken.Diese Dissertation untersucht detailliert unterschiedliche Beschleunigungstechniken sowiedie jeweils benötigten Datenstrukturen bezüglich ihrer Nützlichkeit in vielfältigen Darstellungsalgorithmen.Hierbei wird der Fokus auf Verfahren gelegt, die Objekt-Hierarchien ausnutzen,also eine Szenengeometrie hierarchisch verwalten.In Rahmen dieser Arbeit wird ein neues Verfahren zur automatischen Hierarchiegenerierungpräsentiert, wobei die Grundidee darin liegt, die Hierarchie derart aufzubauen, dass die erwartetenspäteren Rendering-Kosten beim Traversieren der Szenengeometrie minimiert werden. SolcheHierarchien werden erfolgreich in dem Bereich der fotorealistischen Visualisierung mittelsRay-Tracing und Radiosity eingesetzt. Hierbei wird zum einen eine deutliche Verbesserung derLaufzeit durch eine Beschleunigung der Sichtbarkeitsberechnungen erzielt. Zum anderen wirdfür das Radiosity-Verfahren gezeigt, dass die erzeugten Objekt-Hierarchien ideal zur effizientenBerechnung des Lichtflusses zwischen entfernten, komplexen Szenenobjekten verwendet werdenkönnen (Radiosity Clustering). Hierdurch wurde die Verwendung sehr grosser Datensätzeinnerhalb der Radiosity-Berechnung überhaupt erst ermöglich.Diese Arbeit geht ebenso auch auf den Bereich des Echtzeit-Renderings ein, dabei insbesondereauf Occlusion Culling-Algorithmen, denen in letzter Zeit viel Aufmerksamkeit zuteilwurde. Hierbei wird versucht, von anderen Objekten verdeckte Szenengeometrien frühzeitigzu entdecken, um sie aus der Graphikpipeline zu entfernen. Dabei wird die Nützlichkeit vonObjekt-Hierarchien für den Prozess des Occlusion Cullings hervorgehoben und es werden unterschiedlicheGenerierungsalgorithmen für solche Hierarchien verglichen. Als Resultat konntedurch Einsatz eines neuen Verfahrens zu Hierarchieerzeugung eine deutliche Erhöhung derBildgenerierungsrate bei komplexen Szenen erzielt werden.Schliesslich wird ein System zur interaktiven Visualisierung grosser Szenenmodelle präsentiert,welches durch Kombination von Occlusion Culling und Strahlschnitttests wiederum eineErhöhung der Bildgenerierungsrate im Vergleich zu klassischem Occlusion Culling erreicht. Es wird zudem aufgezeigt, dass dieses Verfahren in Szenen mit geringer Verdeckung nahezu keinenOverhead beinhaltet. Die Occlusion-Tests werden hierbei genau dann automatisch aktiviertbzw. deaktiviert, wenn es notwendig ist.Item Real Time Tone Mapping(Artusi, 2004) Artusi, Alessandro:The dynamic range limitations of current image output devices such as monitors and printers; do not allow to visualize High Dynamic Range images correctly. Tone mapping helps to solve this problem; but real-time performances are not yet achieved. In this thesis we analyse the acceleration question about tone mapping in the context of monitors and printers. Two different solutions are presented. For monitors; we describe a framework that accelerates any complex pre-existing global tone mapping operator and its implementation on the hardware. For printers; an integration of tone mapping with a fast colorimetric characterization model is proposed. Furthermore the time-dependency characteristic of the Human Visual System is analysed; and a model improving the performances of an existing one is presented.; Abstract The dynamic range limitations of current image output devices such as monitors and printers; do not allow to visualize High Dynamic Range images correctly. Tone mapping helps to solve this problem; but real-time performances are not yet achieved. In this thesis we analyse the acceleration question about tone mapping in the context of monitors and printers. Two different solutions are presented. For monitors; we describe a framework that accelerates any complex pre-existing global tone mapping operator and its implementation on the hardware. For printers; an integration of tone mapping with a fast colorimetric characterization model is proposed. Furthermore the time-dependency characteristic of the Human Visual System is analysed; and a model improving the performances of an existing one is presented.Item New Acquisition Techniques for Real Objects and Light Sources in Computer Graphics(Goesele, Michael, 2004-07-14) Goesele, MichaelAccurate representations of objects and light sources in a scenemodel are a crucial prerequisite for realistic image synthesis usingcomputer graphics techniques. This thesis presents techniques forthe efficient acquisition of real world objects and real world lightsources, as well as an assessment of the quality of the acquiredmodels.Making use of color management techniques, we setup an appearancereproduction pipeline that ensures best-possible reproduction oflocal light reflection with the available input and output devices.We introduce a hierarchical model for the subsurface light transport intranslucent objects, derive an acquisition methodology, and acquiremodels of several translucent objects that can be renderedinteractively. Since geometry models of real world objects areoften acquired using 3D range scanners, we also present a methodbased on the concept of modulation transfer functions to evaluatetheir accuracy.In order to illuminate a scene with realistic light sources, wepropose a method to acquire a model of the near-field emissionpattern of a light source with optical prefiltering. We apply thismethod to several light sources with different emissioncharacteristics and demonstrate the integration of the acquiredmodels into both, global illumination as well ashardware-accelerated rendering systems.Item 3D Simulation of external beam radiotherapy(Karangelis, Grigorios, Dec 2004) Karangelis, GrigoriosCancer belongs to a group of disease characterized by tumor growth and spread, and is the most significant health care problem in European and Western Countries. The clinical processes used to treat cancer can be separated into drug treatments, radiation therapy [Meyer96] (RT) treatment or even a combination of them [Zambo94]. RT uses radiation in order to deliver a very accurate dose of radiation to a well-defined target volume with minimal damage to surrounding healthy tissues. The wanted result is the eradication of the disease and the improvement or prolongation of patient's life. The amount of required dose can be applied on the tumor site using external beam radiotherapy or brachytherapy [Kolot99]. Hence RT is a very demanding process that requires accuracy and affectivity not only for the elimination of the cancer sells but also for the protection of the healthy organs within the human body. In this dissertation it is of interest the radiation therapy process (RTP) using external beam radiotherapy (EBRA).