Detailseite
IP5: Unsicherheit trifft Erklärbarkeit -- Die Kombination von Unsicherheitsquantifizierung und erklärbaren maschinellem Lernen für das Monitoring von Nutzpflanzen
Antragstellerin
Professorin Dr.-Ing. Ribana Roscher
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 459376902
Eines der wichtigsten Ziele bei der Anwendung des maschinellen Lernens ist die Vorhersage, d. h. die Zuordnung von Inputdaten zu einem bekannten Output. In der Regel wird ein Vorhersagemodell im Hinblick auf eine hohe Genauigkeit trainiert, aber bei Entscheidungsprozessen ist es auch wichtig zu verstehen, wie ein bestimmtes Modell funktioniert und wie unsicher die Entscheidung ist, zum Beispiel um die Zuverlässigkeit des Ergebnisses zu überprüfen. In jüngster Zeit hat sich das erklärbare maschinelle Lernen als eine Möglichkeit herauskristallisiert, ein besseres Verständnis für die Funktionsweise tiefer neuronaler Netze zu gewinnen. Diese Techniken kombinieren Domänenwissen mit Interpretationswerkzeugen, die komplexe Prozesse (z. B. einen Entscheidungsprozess in einem neuronalen Netz) in einem für den Menschen verständlichen Raum abbilden. Ebenso wichtig für diese Aufgabe ist die Quantifizierung der Unsicherheit des Ergebnisses. Obwohl neuronale Netze auch einen Vertrauenswert für die Vorhersage liefern können, neigen sie dazu, übermäßig zuversichtlich zu sein. Werden diese Konfidenzwerte als Grundlage für die Entscheidungsfindung verwendet, kann dies zu falschen oder unzuverlässigen Ergebnissen führen. Bisher wurden die Bereiche des erklärbaren maschinellen Lernens und der Quantifizierung von Unsicherheiten für die Entscheidungsfindung nur selten gemeinsam betrachtet. Während erklärbares maschinelles Lernen - insbesondere die Sensitivitätsanalyse - die Gründe für die Entscheidung und die Bedeutung von Unsicherheiten berücksichtigt, zielt die Unsicherheitsquantifizierung auf eine Bewertung der Zuverlässigkeit der Entscheidung ab, so dass sich beide Richtungen gegenseitig ergänzen. Wir argumentieren, dass weder die Interpretationswerkzeuge des erklärbaren maschinellen Lernens noch das Vertrauen in neuronale Netze allein ausreichen, um eine umfassende Aussage über die Zuverlässigkeit eines Ergebnisses zu treffen. Daher wird dieses Projekt die neuartige Kombination von Unsicherheitsquantifizierung und erklärbarem maschinellem Lernen für die Entscheidungsfindung im Gartenbau erforschen und Inputvariablen bereitstellen, die für eine effiziente Erfassung und für die Definition taktischer Managemententscheidungen hilfreich sind.
DFG-Verfahren
Forschungsgruppen