Neue Konzepte für multiple Tests zur Auswertung hochdimensionaler Beobachtungen und ihre Anwendung in der EEG-Analyse und Proteinexpressionsanalyse
Zusammenfassung der Projektergebnisse
Bei der Auswertung hochdimensionaler Daten, wie sie z. B. in der EEG- oder Proteinexpressionsanalyse auftreten, müssen gleichzeitig sehr viele Hypothesen überprüft werden. Dabei stehen oft nur relativ wenige Beobachtungsvektoren zur Verfügung. Das Ziel ist, multiple Testverfahren einzusetzen, die möglichst viele falsche Hypothesen finden und trotzdem gewährleisten, dass der Anteil falsch positiver Hypothesen gering bleibt. Besonders vorteilhaft sind dabei multiple Testverfahren, die durchaus Fehler 1. Art zulassen, aber zugleich mit Sicherheit l-a garantieren, dass die Anzahl u bzw. der Anteil y irrtümlicher Ablehnungen (in Abhängigkeit von der Dimension) einen vorgegebenen Wert nicht überschreitet. Das leisten die so genannten gFWE(u)- bzw. FDP(y)-kontroliierenden Verfahren, die im Allgemeinen aber ziemlich rechenaufwendig sind (z. B. die schrittweisen Prozeduren A und B von Korn et al. (2004)). Die ursprüngliche Zielstellung unseres DFG-Antrags sah deshalb vor, die Vorgehens weise der weniger rechenintensiven SAM-Methoden anzuwenden, um Verfahren zur Kontrolle von gFWE(u) und FDP(y) zu entwickeln. Ein solches gFWE(u)-Verfahren schien auch möglich, bis wir später erkannten, dass dessen optimale Lösung mit dem ersten Schritt von Prozedur A identisch war. Auf diese Weise konnten wir also kein neues gFWE(u)-Verfahren entwickeln. Wir hatten aber dann die Idee, ähnlich wie bei den SAM-Methoden, durch Berücksichtigung einer oberen Schranke von der Anzahl der wahren Hypothesen doch noch einen Powergewinn zu erzielen. Im weiteren Bearbeitungsverlauf veränderten wir daher unsere Zielstellung und suchten nun nach Möglichkeiten, alle existierenden gFWE(u)- und FDP(y)-Verfahren bei Kenntnis einer oberen Schranke von der Anzahl der wahren Hypothesen zu verbessern. Die methodischen Ergebnisse liegen auch bereits vollständig vor, sind aber noch nicht alle publiziert. Natürlich ist der dadurch erreichte Powergewinn vom tatsächlichen Anteil TIQ der wahren Hypothesen und von dessen Schätzgenauigkeit abhängig. Deshalb haben wir im Projektverlauf auch viele in der Literatur vorgeschlagene Schätzmethoden fur KO programmiert und miteinander verglichen. Leider gibt es aber kein gleichmäßig bestes Schätzverfahren, weil deren Güte wesentlich von den realen Verteilungseigenschaften der Beobachtungswerte abhängig ist. In speziellen realen Situationen lassen sich aber zumindest Empfehlungen geben, welche Schätzmethoden vorteilhaft und welche unvorteilhaft sind. Dennoch, die von uns modifizierten Algorithmen lassen sich also bereits dann erfolgreich anwenden, wenn bekannt ist, dass nicht alle zu prüfenden Hypothesen, sondern nur ein Anteil kleiner eins, wahr sein können. Das sollte aber gerade bei hochdimensionalen Daten entweder aufgrund von Erfahrungen oder inhaltlichen Vorkenntnissen oder durch mögliches Schätzen oft der Fall sein.
Projektbezogene Publikationen (Auswahl)
-
Somerville, P.N., Hemmelmann, C. (2008): Step-up and step-down procedures controlling the number and proportion of false positives. Computational Statistics & Data Analysis 52 (2008) 1323-1334.