Detailseite
Projekt Druckansicht

Robuste sequentielle Analyse in Netzwerken

Fachliche Zuordnung Elektronische Halbleiter, Bauelemente und Schaltungen, Integrierte Systeme, Sensorik, Theoretische Elektrotechnik
Förderung Förderung von 2019 bis 2024
Projektkennung Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 431431951
 
Die sequentielle Analyse befasst sich mit Problemen der statistischen Inferenz, bei denen die Anzahl der Samples nicht a priori festgelegt ist, sondern von den beobachteten Daten abhängt. Sequentielle Detektoren reduzieren die durchschnittlich nötige Anzahl an Samples im Vergleich zu klassischen Verfahren deutlich. Sie finden Anwendung in vielen Bereichen, in denen eine hohe Effizienz erforderlich ist, insbesondere in Situationen, in denen die Beschaffung von Daten aufwändig oder die Detektionsverzögerung kritisch ist. Im Gegensatz dazu ist die Idee der robusten Statistik, Effizienz unter Idealbedingungen zu opfern, um weniger anfällig für Abweichungen vom Idealfall zu sein. Robuste Detektoren funktionieren in einer Umgebung des angenommenen Modells und lassen somit kleine, aber beliebige Abweichungen zu.In mehreren Vorarbeiten, insbesondere im DFG-Projekt "Robust Sequential Analysis", haben wir die Kombination von sequentieller und robuster Statistik zur schnellen und zuverlässigen Lösung von Inferenzproblemen untersucht. Mit dem Projekt Roseanne wollen wir diese Forschungslinie auf verteilte Systeme und Netzwerke ausweiten. Letztere sind für zukünftige Kommunikations- und Signalverarbeitungssysteme, besonders im Zusammenhang mit Smart Cities und dem Internet der Dinge, von großer Bedeutung. Dennoch existieren bisher nur wenige Ergebnisse zur robusten sequentiellen Detektion in Netzwerken. Insbesondere fällt auf:1) Es existiert kein verteiltes Äquivalent zu klassischen Unsicherheitsmodellen wie Ausreißern oder Umgebungen um nominale Verteilungen.2) Über den Zusammenhang zwischen knotenweiser Unsicherheit und netzwerkweiter Unsicherheit ist bislang wenig bekannt.3) Verfahren zur Robustifizierung klassischer Detektoren, wie Clipping oder Censoring, führen nicht notwendigerweise zu robusten verteilten Detektoren.4) Es existieren kaum Ergebnisse über die Menge an Ausreißern, die ein verteilter Detektor tolerieren kann (breakdown point).In der Mehrzahl der Veröffentlichungen zu dem Thema wird Robustheit daher rein qualitativ definiert und die Ergebnisse gelten oft nur für kleine Netzwerke oder basieren auf empirisch motivierten, anwendungsspezifischen Heuristiken.Das erste Ziel des Projektes ist daher diese Lücke im Verständnis zu schließen und eine solide Grundlage für eine Theorie der robusten sequentiellen Detektion in Netzwerken zu schaffen. Basierend darauf ist das zweite Ziel die Entwicklung und Implementierung von sequentiellen verteilten Algorithmen, die in klar definierter und quantifizierbarer Weise robust sind. Ein erfolgreicher Abschluss des Projekts wäre ein erster signifikanter Beitrag zu einem allgemeinen Framework robuster Detektion in Netzwerken.Das Fachgebiet Signalverarbeitung ist international anerkannt für seine Arbeiten zur robusten, sequentiellen und verteilten Signalverarbeitung. Daher sehen wir uns in einer besonders guten Ausgangslage für einen erfolgreichen Abschluss des Projektes.
DFG-Verfahren Sachbeihilfen
Mitverantwortlich Dr.-Ing. Michael Fauß
 
 

Zusatzinformationen

Textvergrößerung und Kontrastanpassung