Detailseite
GRK 1032: Statistische Modellbildung
Fachliche Zuordnung
Wirtschaftswissenschaften
Mathematik
Mathematik
Förderung
Förderung von 2004 bis 2013
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 374400
Ziel ist die Forschung zur Statistischen Modellbildung als Schnittstelle zwischen Theorie und Praxis sowie zwischen den verschiedenen Anwendungsgebieten der Statistik (z.B. Biometrie, Ökonometrie). Vier Bereiche stehen dabei im Zentrum: Datenerhebung zur Modellbildung, Grundlagen der Modellbildung, Empirische Modellbildung, Algorithmen in der Modellbildung.
Natürliche Phänomene und Prozesse sind nicht exakt beschreibbar. Zum einen nimmt der Mensch nur die Erscheinung der Phänomene wahr und bildet dementsprechend nur Schemata in seiner eigenen Vorstellung ab. Zum anderen unterliegen die betrachteten Phänomene zufälligen Schwankungen, wobei die Natur dieser Variabilitäten in der Regel unbekannt ist. Ein zentrales Element der empirischen Wissenschaften ist die Annäherung solcher Phänomene und Prozesse durch statistische Modelle.
Ziel ist es, Modelle zu finden und zu analysieren, die eine hinreichende Beschreibung und Analyse der interessierenden Fragestellungen bieten. Die Realität ist möglichst genau abzubilden, ohne die Operationalisierbarkeit der Verfahren zu verlieren. Zur Erreichung dieses Zieles werden vier Grundgedanken verfolgt:
Die Entwicklung von Modellen ist motiviert durch praktische Problemstellungen. Das mathematisch-statistische Wissen muss mit substanzwissenschaftlicher Expertise verknüpft werden, um zu adäquaten Beschreibungen zu gelangen. Die zu konstruierenden Modelle richten sich nach der jeweiligen Fragestellung (Abbildung eines Ereignisses oder Vorgangs, Prognose, Suche nach phänomenologischer oder kausaler Erklärung).
Modelle aus verschiedenen Anwendungsbereichen lassen sich oft auf gemeinsame Grundstrukturen reduzieren. Die theoretische Weiterentwicklung dieser Basismodelle mit dem Ziel der Generalisierung erschließt wiederum neue Anwendungsbereiche dieser Modelle. Die Erforschung einschränkender Modellannahmen führt ebenfalls zur verbesserten Anwendbarkeit. Ein Modell setzt eine bestimmte Datenstruktur voraus. Zur Überprüfung der Modellgüte und zur Erhöhung der Validität des Modells ist es notwendig, passende Modelle für die Erhebung von Daten z.B. aus Versuchen zu finden.
Nicht zuletzt kommt gerade im elektronischen Zeitalter der computergestützten Umsetzung statistischer Modelle eine besondere Bedeutung zu. Zum einen ist sicherzustellen, dass für große Datenmengen entsprechende Algorithmen zur Anwendung der Modelle gefunden werden. Zum anderen dienen Simulationsstudien der algorithmischen Verifizierung der Modelle.
Natürliche Phänomene und Prozesse sind nicht exakt beschreibbar. Zum einen nimmt der Mensch nur die Erscheinung der Phänomene wahr und bildet dementsprechend nur Schemata in seiner eigenen Vorstellung ab. Zum anderen unterliegen die betrachteten Phänomene zufälligen Schwankungen, wobei die Natur dieser Variabilitäten in der Regel unbekannt ist. Ein zentrales Element der empirischen Wissenschaften ist die Annäherung solcher Phänomene und Prozesse durch statistische Modelle.
Ziel ist es, Modelle zu finden und zu analysieren, die eine hinreichende Beschreibung und Analyse der interessierenden Fragestellungen bieten. Die Realität ist möglichst genau abzubilden, ohne die Operationalisierbarkeit der Verfahren zu verlieren. Zur Erreichung dieses Zieles werden vier Grundgedanken verfolgt:
Die Entwicklung von Modellen ist motiviert durch praktische Problemstellungen. Das mathematisch-statistische Wissen muss mit substanzwissenschaftlicher Expertise verknüpft werden, um zu adäquaten Beschreibungen zu gelangen. Die zu konstruierenden Modelle richten sich nach der jeweiligen Fragestellung (Abbildung eines Ereignisses oder Vorgangs, Prognose, Suche nach phänomenologischer oder kausaler Erklärung).
Modelle aus verschiedenen Anwendungsbereichen lassen sich oft auf gemeinsame Grundstrukturen reduzieren. Die theoretische Weiterentwicklung dieser Basismodelle mit dem Ziel der Generalisierung erschließt wiederum neue Anwendungsbereiche dieser Modelle. Die Erforschung einschränkender Modellannahmen führt ebenfalls zur verbesserten Anwendbarkeit. Ein Modell setzt eine bestimmte Datenstruktur voraus. Zur Überprüfung der Modellgüte und zur Erhöhung der Validität des Modells ist es notwendig, passende Modelle für die Erhebung von Daten z.B. aus Versuchen zu finden.
Nicht zuletzt kommt gerade im elektronischen Zeitalter der computergestützten Umsetzung statistischer Modelle eine besondere Bedeutung zu. Zum einen ist sicherzustellen, dass für große Datenmengen entsprechende Algorithmen zur Anwendung der Modelle gefunden werden. Zum anderen dienen Simulationsstudien der algorithmischen Verifizierung der Modelle.
DFG-Verfahren
Graduiertenkollegs
Antragstellende Institution
Technische Universität Dortmund
Sprecher
Professor Dr. Joachim Kunert
beteiligte Wissenschaftlerinnen / beteiligte Wissenschaftler
Professor Dr. Roland Fried; Professorin Dr. Ursula Gather; Professor Dr. Joachim Hartung (†); Professorin Dr. Katja Ickstadt; Professor Dr. Guido Knapp; Professor Dr. Walter Krämer; Dr. Uwe Ligges; Professor Dr. Jörg Rahnenführer; Professor Dr. Götz Trenkler; Professor Dr. Claus Weihs; Professor Dr. Rafael Weißbach