Detailseite
MetaProteomics Pipeline (MPP): Integration verschiedener Metaproteomics Datenanalyse-Tools in einen umfänglichen und nachhaltigen Bioinformatik-Workflow
Antragsteller
Dr. Stephan Fuchs; Professor Dr. Bernhard Renard
Fachliche Zuordnung
Bioinformatik und Theoretische Biologie
Mikrobielle Ökologie und Angewandte Mikrobiologie
Mikrobielle Ökologie und Angewandte Mikrobiologie
Förderung
Förderung von 2018 bis 2023
Projektkennung
Deutsche Forschungsgemeinschaft (DFG) - Projektnummer 391179955
Ziel dieses Projektvorschlags ist die Etablierung einer Metaproteomics Pipeline (MPP), die einen nachhaltigen, flexiblen und benutzerfreundlichen Workflow für die Analyse von Metaproteomdaten bereitstellen soll.Metaproteomics ist eine an Bedeutung gewinnende Technologie, die das Studium mikrobieller Gemeinschaften in ihren Lebensräumen mit Hilfe massenspektrometrischer Proteinanalytik erlaubt. Hierfür werden angepasste und optimierte Softwarelösungen benötigt, die Forschern verschiedener Bereiche (z.B. Mikrobiologie, Ökologie, medizinische Diagnostik) den Zugang zu modernen Strategien der Datenanalyse ermöglichen und erleichtern. Aufgrund der Komplexität und Heterogenität der Proben, ist die Analyse und Interpretation resultierender Daten sehr anspruchsvoll. Dazu zählt die zuverlässige Identifizierung experimenteller Massenspektren, die effiziente Gruppierung von nicht eindeutigen Proteinidentifikationen, die akkurate Proteinquantifizierung identifizierter Proteine sowie die sinnvolle Integration taxonomischer und funktioneller Metainformationen. Um diese Aufgaben zu unterstützen und bestehende Limitationen zu überwinden, haben wir die Open-Source-Softwarelösungen MetaProteomeAnalyzer (MPA), Pipasic und Prophane entwickelt. Diese Prototypen bieten umfassende Funktionen für die Analyse und Interpretation von Metaproteomdaten. Im Rahmen dieses Projektes sollen sie zu einem Workflow kombiniert werden mit besonderem Augenmerk auf hohe Nutzbarkeit, Zuverlässigkeit, Interoperabilität und Erkennbarkeit für die Forschungsgemeinschaft. In sechs verschiedenen Arbeitspaketen legen wir den Fokus auf (i.) Definition und Implementierung eines Standard-Workflows, (ii.) automatisierte Qualitätssicherung auf Basis von Benchmarkdaten, (iii.) Definition eines Datenformates für den Austausch mit anderer Software, (iv.) Infrastruktur für eine einfache und nachhaltige Zugänglichkeit, (v.) Dokumentation, Schulung und verbesserte Erkennbarkeit, (vi.) Verbreitung der Ergebnisse und Wirkungsmessung. Die Pipeline soll die zeit- und kosteneffiziente Analyse von Metaproteomdaten erleichtern. Auch Nutzer, denen ein fundiertes Wissen im Bereich Metaproteomik oder Bioinformatik fehlt, sollen die Datenanalyse durchführen können. Experten der verschiedenen Bereiche werden als Pilotanwender bereits früh eingebunden sein, um die Pipeline hinsichtlich ihrer Leistung und Funktion zu bewerten und zu validieren. Ein automatisiertes Benchmarkverfahren wird für die Bewertung des entwickelten Workflows aber auch zum Testen anderer Software in diesem Feld bereitgestellt. Methoden der semantischen Softwareannotation, Dokumentation, Schulung und Verteilung auf Community-Plattformen werden den Workflow einer breiteren Forschungsgemeinschaft zugänglich machen. Zusätzlich werden uns Nutzungsstatistiken und Umfragen unter Pilot- und Endnutzern helfen, einen nachhaltigen Worfklow unter Berücksichtigung bewährter Praktiken im Bereich der Datenanalyse und des Softwaredesigns zu etablieren.
DFG-Verfahren
Forschungsdaten und Software (Wiss. Literaturversorgung und Informationssysteme)