Detailseite
Regularisierungsstrategien für interpretierbare tiefe Modelle und robuste Erklärungen mit Anwendung in der Genomik
Antragsteller
Professor Dr.-Ing. Uwe Ohler; Professor Dr. Wojciech Samek
Fachliche Zuordnung
Medizininformatik und medizinische Bioinformatik
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 459422098
Erklärung durch Attribution ist ein vielversprechendes Konzept zur Erzielung von Transparenz von bereits trainierten maschinellen Lernmodellen. Ziel ist es, zu erklären, welche Eingabedimensionen für das Modell am wichtigsten waren, um zu seiner Vorhersage für einzelne Eingabedaten zu gelangen. Solche Erklärungen können visualisiert und dem menschlichen Nutzer zur Überprüfung und Interpretation zur Verfügung gestellt werden. Die Relevanzwerte, die dabei den einzelnen Eingabevariablen zugewiesen werden, werden zwar in vielen Anwendungen erfolgreich eingesetzt, vermitteln aber nur begrenzte Informationen. Des weiteren können sie auch durch verschiedene Arten von Rauschen beeinflusst werden, so dass sie nicht ausreichen, um komplexe Beziehungen in den Daten und die Funktionsweise des Modells zu verstehen. Ausserdem können Erklärungen zwar korrekt, aber für den Menschen intuitiv nicht verständlich und daher nur von begrenztem Nutzen sein, z. B. wenn das Modell auf Datentypen arbeitet, die nicht von menschlichen Sinnesorganen erfasst werden.Unser Ziel ist es, neue Methoden zu entwickeln, um Erklärungen robuster und für den menschlichen Experten lesbarer zu machen. Wir werden uns sowohl mit dem Einfluss des Modells als auch mit der Erklärungsmethode selbst befassen. Zunächst werden wir die Auswirkungen verschiedener Trainingsparameter sowie die Verwendung von Modellregularisierungstechniken zur Verbesserung von Erklärungen im Hinblick auf wünschenswerte Eigenschaften wie (Gruppen-)Sparsamkeit oder Robustheit untersuchen. Danach werden wir aktuelle Techniken der erklärbaren KI direkt vergleichen und Verbesserungen definieren, z. B. mit Methoden der robusten Statistik. Wir werden Nachbearbeitungsmethoden für Erklärungen entwickeln, die zur Verbesserung der Qualität und des Informationsgehalts von Erklärungen beitragen oder die Informationen über die Population liefern, um sie für den menschlichen Experten lesbarer zu machen. Des weiteren werden wir die derzeitige deterministische Form der Erklärung von Vorhersagen überdenken und Konzepte der Ungewissheit in die Erklärung einbeziehen, um Erklärungsverteilungen zu generieren, die das gesamte Spektrum der verschiedenen Strategien zum Erreichen einer Vorhersage aufzeigen.Unsere Anwendungen verwenden molekularen Sequenzdaten, insbesondere um Sequenzmuster zu identifizieren und zu verstehen, die die Genexpression durch verschiedene Mechanismen der Genregulation steuern. Hier können (redundante) Kombinationen von Merkmalen zu einem beobachteten Effekt führen. Während eine einzelne Erklärung sich nur auf einen Teil der zugrunde liegenden Biologie beziehen würde, liefert eine Erklärungsverteilung das vollständige Bild. Durch die Entwicklung neuer Regularisierungstechniken und globaler Interpretationsmethoden wird dieses Projekt Vorhersagestrategien des Modells menschlich zugänglicher machen. Darüber hinaus werden die neuen Techniken zu robusteren Erklärungen und vollständigen Erklärungsverteilungen führen.
DFG-Verfahren
Forschungsgruppen