How to Cite

Kaps, Reiko: Distributed Research Data Management - Plädoyer für eine verteilte Forschungsdaten-Infrastruktur, in Kratzke, Jonas and Heuveline, Vincent (Eds.): E-Science-Tage 2017: Forschungsdaten managen, Heidelberg: heiBOOKS, 2017, p. 89–94. https://doi.org/10.11588/heibooks.285.c3880

License (Chapter)

Creative Commons License

This work is licensed under a Creative Commons Attribution-ShareAlike 4.0 International License.

Identifiers (Book)

ISBN 978-3-946531-75-3 (PDF)

Published

12/21/2017

Authors

Reiko Kaps

Distributed Research Data Management - Plädoyer für eine verteilte Forschungsdaten-Infrastruktur

Klassisches Forschungsdatenmanagement sieht die Forschenden eher als Kunden denn als Mitstreiter. Beratung und Angebote etwa zur Veröffentlichung von Forschungsdaten orientieren sich an Service-Konzepten, die Informationen zentral verteilen und vorhalten. Diese Einstellung spiegelt sich auch bei Forschungsdaten-Repositorien wider. Diese Publikationsplattformen eignen sich damit zwar gut als Schaufenster, weniger oder oft gar nicht als Arbeits- und Austauschplattform für Forschungsdaten. Zudem sind Forschungsdaten-Repositorien für die drin gendsten Probleme der Forschenden nur unzureichend gerüstet: Dazu zählen die Sicherung der Urheberschaft, die Wahrung der Unversehrtheit von veröffentlichten Daten sowie die dauerhafte Verknüpfung mit Metadaten und Lizenzinformationen. Herkömmliche IT-Dienste gewährleisten solche Zusicherungen nur innerhalb ihres Systems. Verlassen die veröffentlichten Daten dieses Refugium, können Informationen zu Urheberschaft und Lizenz in Gefahr geraten. Jenseits des klassischen Client-Server-Ansatzes existieren andere Verfahren, um Daten und Dienste im Internet zu verbreiten und deren Authentizität sicherzustellen. Diese dezentralen Ansätze setzen auf Peer-to-Peer-Techniken und neuerdings auch auf Blockchain-Verfahren, die die mathematische Grundlage für Kryptowährungen bilden. Blockchain-Verfahren sichern Transaktionen, stellen “Einigkeit” unter den  beteiligten Knoten her und eignen sich so für den sicheren, vertrauenswürdigen und nachvollziehbaren Austausch beliebiger Daten – also auch von Forschungsdaten. Inzwischen stehen Anwendungen bereit, die Dateien dezentral verteilen (IPFS), Daten strukturiert ablegen (BigchainDB) und untrennbar mit Metainformationen zu Urheber, Lizenz etc. verbinden (Mediachain/IPDB).
Diese Programme benötigen keine zentrale Instanz, sichern die Datenintegrität, verfolgen Änderungen und verteilen effektiv Datenbestände. Jeder kann damit nicht nur Daten anbieten und abrufen, sondern auch auf dieser Basis eigene Anwendungen entwickeln. Das folgende Papier stellt diese Ansätze vor, zeigt deren Vorteile gegenüber klassischen Client-Server-Angeboten und skizziert, wie sie das Datenmanagement für veröffentlichte Forschungsdaten verbessern und vereinfachen können.