FAIR Data und Verteilte Analyse

FAIR steht für Findable, Accessible, Interoperable und Reusable.

Forschungs- und Entwicklungsbereiche

Wir fördern die praktische Umsetzung der FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable) durch umfassende Dateninfrastrukturen und Wissensmanagement-Systeme. Unsere Arbeit umfasst FAIR Digital Objects (FDOs), die Entwicklung von Forschungsdateninfrastrukturen, Wissensgraphen, semantische Technologien, persistente Identifikatoren (PIDs) und Frameworks für Datensouveränität.

Wir entwickeln fortschrittliche Methoden zur Transformation unstrukturierter Daten in strukturierte, maschinenlesbare Formate unter Verwendung modernster KI-Techniken. Dies umfasst die Extraktion medizinischer Informationen aus klinischen Dokumenten, die Verarbeitung wissenschaftlicher Dokumente, multimodale Datenintegration und domänenspezifische Textverarbeitung für Gesundheitswesen, Rechtswesen und wissenschaftliche Bereiche.

Wir erstellen hochentwickelte verteilte Analyseplattformen und KI-gestützte Entscheidungsunterstützungssysteme für reale Herausforderungen. Unsere Machine Learning- und Analyselösungen umfassen Gesundheitsdiagnostik, Kulturerbe-Bewahrung, industrielle Anwendungen und Verhaltensanalyse, mit Fokus auf datenschutzwahrende und föderierte Ansätze.

Technische Expertise & Anwendungen

Unsere Forschung und Entwicklung nutzt modernste Technologien wie Large Language Models (Große Sprachmodelle), verteilte Analytik, föderiertes Lernen, Wissensgraph-Konstruktion und Reinforcement Learning. Wir arbeiten daran, FAIR-Datenprinzipien zu ermöglichen und etablierte Standards voranzutreiben, einschließlich Gesundheitsdatenstandards (HL7, FHIR), Semantic Web Standards und datenschutzwahrende Berechnungsframeworks.

Wir entwickeln praktische Lösungen, die die Lücke zwischen modernster KI-Forschung und realen Anwendungen überbrücken. Wir konzentrieren uns auf die Verbesserung der Datenzugänglichkeit, die Verbesserung der Gesundheitsergebnisse, die Bewahrung des Kulturerbes, die Förderung der wissenschaftlichen Forschung und die Ermöglichung datengetriebener Innovation durch sichere, konforme Datenaustauschplattformen.

Wir arbeiten eng mit Gesundheitseinrichtungen, Kulturerbe-Organisationen, Forschungseinrichtungen, Industriepartnern und Regierungsbehörden zusammen. Unser interdisziplinärer Ansatz gewährleistet, dass unsere technischen Lösungen reale Bedürfnisse adressieren und gleichzeitig höchste Standards in Ethik, Datenschutz und Sicherheit einhalten.

Unser Service-Angebot

FAIR Digital Objects Manager (FDO Manager)

Der FDO Manager im Rahmen von NFDI4DS stellt eine der ersten praktischen Implementierungen des FDO dar, die den FDO-Spezifikationen entspricht und gleichzeitig eine robuste, minimal funktionsfähige Lösung bietet. Der Manager stellt sicher, dass jedem Artefakt die erforderlichen Metadaten sowie ein persistenter Identifikator zugeordnet werden. Um die FDO-Spezifikationen vollständig zu erfüllen, sorgt der Manager dafür, dass die Metadaten vorübergehend in einem speziellen, von Fraunhofer FIT verwalteten Register gespeichert werden, das getrennt von den digitalen Objekten ist. Darüber hinaus übernimmt der FDO Manager die Erfassung und Speicherung der FDO-Einträge in einem separaten Register, was eine zentrale Anforderung der FDO-Spezifikationen darstellt. Mehr

PADME

Personal Health Train (PHT) ist ein neuartiger Ansatz, der darauf abzielt, eine verteilte Datenanalyse-Infrastruktur zu schaffen, die die (Wieder-)Verwendung von verteilten Gesundheitsdaten ermöglicht. Gleichzeitig behalten die Datenbesitzer die Kontrolle über ihre Daten. Das Hauptprinzip des PHT besteht darin, dass die Daten an ihrem ursprünglichen Ort verbleiben und die Analyseaufgaben die Datenquellen besuchen und die Aufgaben ausführen. Der PHT bietet einen verteilten, flexiblen Ansatz für die Nutzung von Daten in einem Netzwerk von Teilnehmern, der die FAIR-Grundsätze berücksichtigt. PADME ist eine PHT-Implementierung, die von Fraunhofer in Zusammenarbeit mit der RWTH Köln, der Uniklinik Köln und der Universität Leipzig entwickelt wurde. Die Verteilte Analyse (VA) wurde eingeführt, um die Herausforderungen des Zugriffs auf und der Durchführung von Datenanalysen mit datenschutzrelevanten Daten zu bewältigen. Das Hauptprinzip von VA besteht darin, dass die Analyseaufgabe zu den Daten gebracht wird, anstatt die Daten an einen zentralen Ort zu bringen, um die Datenanalysealgorithmen auszuführen.

Unsere Studie ist Teil der deutschen Initiativen MII und GoFAIR.

Publikationen