Detailseite
Vertrauenswürdiges verstärkendes Lernen für Multi-Agenten-Systeme: Grundlagen von robuster und verantwortungsbewusster Entscheidungsfindung
Antragsteller
Goran Radanovic, Ph.D.
Fachliche Zuordnung
Bild- und Sprachverarbeitung, Computergraphik und Visualisierung, Human Computer Interaction, Ubiquitous und Wearable Computing
Förderung
Förderung seit 2022
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 467367360
Verstärkendes Lernen ist ein rechnerischer Ansatz zur Modellierung und Automatisierung der sequenziellen Entscheidungsfindung unter Unsicherheit. Jüngste Fortschritte des verstärkenden Lernens haben ein unglaubliches Potenzial bei der Verwendung dieses Ansatzes in Bereichen mit hohem Einsatz wie in Empfehlungssystemen, Beförderung oder Ausbildung hervorgehoben. Es sind jedoch viele Bedenken hinsichtlich der Anwendbarkeit der neuesten Techniken vom verstärkenden Lernen auf Bereiche mit hohem Einsatz geäußert worden, da sie die Komplexität in den Szenarien aus der realen Welt, einschließlich ihrer Multiagentenstruktur, nicht berücksichtigen.In diesem Projekt schlagen wir eine Rahmenstruktur für die Entwicklung vertrauenswürdiger und zuverlässiger Algorithmen für das verstärkende Lernen vor. Beim Entwerfen einer solchen Rahmenstruktur identifizieren wir zwei wichtige Komponenten, (selbst entwerfende Algorithmen für verstärkendes Lernen) und das Systemdesign (das Entwerfen unterstützender Werkzeuge, die die Lernprozesse von Agenten verbessern). Innerhalb jeder dieser Komponenten untersuchen wir zwei wichtige Eigenschaften, die eine solche Rahmenstruktur haben sollte, um als vertrauenswürdig eingestuft zu werden: die Robustheit (die Fähigkeit, mit Gegnern und Unsicherheit umzugehen) und Rechenschaftspflicht (die Fähigkeit, eine Erklärung für eigenes Verhalten bereitzustellen).Im Zusammenhang mit der Robustheit wird in diesem Vorschlag der Entwurf von Agenten erläutert, die gegenüber der Anwesenheit anderer Agenten, einschließlich Gegner, robust sind, sowie der Entwurf von Systemen, die robustes Lernen durch Kanalisierung vertrauenswürdiger Informationen unterstützen. Im Zusammenhang mit der Rechenschaftspflicht erläutert dieser Vorschlag der Entwurf von Agenten, die Erklärungen für ihre Handlungen liefern können, sowie der Systementwurf, der die Rechenschaftspflicht unterstützt, indem er die Verantwortung für die Ergebnisse zuweist. Ferner umreißt der Vorschlag die Agenda für die Lösung technischer Herausforderungen im Zusammenhang mit diesen vier Forschungsrichtungen und schlägt Ansätze vor, die auf Lernen mit mehreren Agenten, verstärkendem Lernen, und Spieltheorie beruhen. Die vorgeschlagene Agenda konzentriert sich auf theoretische und algorithmische Aspekte einer robusten und rechenschaftspflichtigen Entscheidungsfindung, die grundlegende Schritte für ein vertrauenswürdiges, verstärkendes Lernen für Multi-Agenten-Systeme bieten.
DFG-Verfahren
Emmy Noether-Nachwuchsgruppen