Detailseite
Projekt Druckansicht

Online Autotuning für interaktives Raytracing

Fachliche Zuordnung Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung Förderung von 2016 bis 2021
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 299215159
 
Erstellungsjahr 2021

Zusammenfassung der Projektergebnisse

In diesem Projekt wurden zwei, aus unterschiedlichen Teildisziplinen stammende, Techniken - Raytracing und Autotuning, zusammengeführt und synergetisch weiterentwickelt. Raytracing ist ein etabliertes, weithin verwendetes Verfahren und Grundlage für die fotorealistische Bildsynthese. Autotuning-Ansätze dienen dazu automatisch optimale Parameter, Kongurationen oder Kombinationen von algorithmischen Bausteinen zu nden. Die laufzeitkritischen Bildsyntheseverfahren auf Basis von Raytracing bieten eine, in Gänze kaum beherrschbare Vielzahl von Tuningmöglichkeiten, die von der Erzeugung und Traversierung der Beschleunigungsstrukturen bis hin zur numerischen Strahlungstransportsimulation reichen. Der optimale Arbeitspunkt kann sich dabei zur Laufzeit verschieben, beispielsweise durch Veränderungen in einer dynamischen, virtuellen 3D-Szene. Ziel war es, Autotuning in die Lage zu versetzen Parameter nahe an diesem Optimum zu nden und kontinuierlich anzupassen. Hierzu wurde ein hybrides Tuning-Verfahren entwickelt, das klassische empirische Optimierung mit modellbasierter Prädiktion verbindet. Reine Suchverfahren haben den Nachteil, dass in ihrem Verlauf viele Kongurationen getestet werden, die einerseits schlechte Performanz aufweisen können, andererseits verursacht das Aktualisieren eines Parameters unter Umständen sehr hohe Kosten (z.B. wenn die Beschleunigungsstrukturen neu aufgebaut werden müssen). Die Vorhersage guter initialer Parameter ist daher entscheidend und wurde intensiv untersucht. Zum einen musste hierzu erforscht werden, welche Indikatoren bzw. aggregierten Informationen das Verhalten eines Bildsyntheseverfahrens und die Spezika einer 3D-Szene kompakt, jedoch ausreichend beschreiben, um effiziente domänenspezische Prädiktionsmodelle zu gewinnen. Diese Modelle wurden im Projekt evaluiert, verfeinert und die Möglichkeiten der Extrapolation, d.h. Anwendung auf nicht-gelernte Eingabeszenen untersucht. Andererseits stellten nominale Parameter, wie sie beispielsweise bei der Auswahl eines algorithmischen Bausteins benötigt werden, die Optimierung selbst vor Herausforderungen, da für diese keine Metriken für Abstände oder Richtungen deniert sind und so die Mehrheit der Suchalgorithmen, die in Autotuning-Ansätzen verwendet werden, ausscheiden. Hierzu wurde eine hierarchische Suche entwickelt, die den Suchraum gemäß dieser nominalen Parameter und spezizierter Abhängigkeiten der Tuning-Parameter zerlegt und zu signikant niedrigeren Suchzeiten führte. Abschließend wurde untersucht, wie Online-Autotuning zusätzlich direkt in Monte Carlo-Verfahren zur Lichttransportsimulation eingesetzt werden kann, um in vorgegebener Zeit möglichst konvergierte Bilder zu berechnen. Hierzu wurde ein Verfahren betrachtet, das den Raum aller möglichen Lichttransportpfade mittels einer Markov-Kette exploriert. Deren Zustandsänderungen wurden durch Autotuning gesteuert und so gezeigt, dass die automatische Parameteroptimierung auf vielen Ebenen Vorteile bieten kann.

Projektbezogene Publikationen (Auswahl)

  • Online-Autotuning in the Presence of Algorithmic Choice. In: IEEE International Parallel and Distributed Processing Symposium Workshops. 2017, pp. 1379-1388
    Philip Pfaffe, Martin Tillmann, Sigmar Walter, and Walter F. Tichy
    (Siehe online unter https://doi.org/10.1109/IPDPSW.2017.28)
  • Efficient Hierarchical Online-Autotuning: A Case Study on Polyhedral Accelerator Mapping. In: Proceedings of the ACM International Conference on Supercomputing. 2019
    Philip Pfaffe, Tobias Grosser, and Martin Tillmann
    (Siehe online unter https://doi.org/10.1145/3330345.3330377)
  • Hybrid Online Autotuning for Parallel Ray Tracing. In: Eurographics Symposium on Parallel Graphics and Visualization. 2019
    Killian Herveau, Philip Pfaffe, Martin Tillmann, Walter F. Tichy, and Carsten Dachsbacher
    (Siehe online unter https://doi.org/10.2312/pgv.20191110)
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung