“ArboDat+ An Archaeobotanical Database Program”
Carina Knappe;
Poster Session
ArboDat+ is a software program for registering and importing archaeobotanical data. It is a continued development of the ArboDat program which was first developed in 1997 as a product of HessenARCHÄOLOGIE under the direction of Prof. Angela Kreuz, and is being carried out as a collaborative project between NFDI for Objects (NFDI4O) under Task Area 3 “Analytics & Experiments”, the Lower Saxony Institute for Historical Coastal Research (NIhK) and the Institute of Pre- and Protohistoric Archaeology (UFG) as well as the Department of Computer Science (IfI) at Kiel University.
The novel implementation of ArboDat builds on a more accessible database system, which is operating-system independent and free of charge. However, the functionality and structure of the original program will be widely kept to enable the easy data transfer from ArboDat into ArboDat+. This poster shall inform the user community about the current progress of the implementaion of ArboDat+: For example, to make things easier and more consistent, ArboDat+ now uses a central list of standard vocabulary, stored at Dante, instead of free text. That means, while in the old program, users could type anything freely, they will now select from a predefined list. If some entries do not yet exist in the new list, adding local attribute labels to the central Dante Server via an “add”-button will be possible. They will then be reviewed manually before being added and made visible to all users. This way, the data becomes consistent and moreover interoperable with other data sets, while still allowing flexibility for unique needs. Furthermore, ArboDat+ now supports importing data from the old ArboDat version, by uploading the respective MS Access files. This allows upload and continuous working with existing data in the new, OS-independent system. Here, data mapping and conflict management with regard to data integrity was handled accordingly and possibly missing, local attributes can be added as described above. Finally, an interactive map for easy location management has been implemented. This comprises (1) choosing a coordinate system (e.g., WGS84) and either type in coordinates or simply place a marker on the map, (2) automatic coordinate conversion into WGS84, so that data stays consistent no matter what reference system is being used, (3) placing a dynamic marker that updates instantly as it moves or coordinates being adjusted, (4) interactive preview so users can visually verify the location before saving, and (5) reverse geocoding to automatically fill in address details (country, county, district, parish, street, and town) based on the coordinates. Taken together, this update makes location entry faster, more accurate, and much more intuitive.
The next steps include further TA3-internal testing of the current program version, continued development of the multilingual frontend, and the implementation of improved user experience features such as mouse-over information boxes and options for data export to common data publishers. In the longer term, and depending on further project funding, an offline version of the application will be developed.
“A Search Portal for Analytical Services in Archaeometry”
Yiu-Kang Hsu;
Poster Session
The FAIR (Findable, Accessible, Interoperable, and Reusable) principles for research data management have become a major initiative, fostering interdisciplinary collaboration in archaeology and cultural heritage. Beyond the data itself, high-quality metadata is equally essential for establishing connections between digital resources, thereby contributing to a Linked Open Data network. For analytical data, a critical metadata framework involves the documentation of analytical services within a laboratory context. This encompasses key information on the capability and availability of research facilities, performance of scientific devices, quality of experimental protocols, and expertise of practitioner. A dedicated digital platform for describing such specifications has been notably absent in archaeometric research.
To address this gap, the Deutsches Bergbau-Museum Bochum (DBM), in collaboration with leading German archaeometric laboratories (CEZA, LEIZA, HfBK, and Rathgen), is developing a search portal to categorize research activities at laboratory facilities. The digital infrastructure is structured around eight core elements, built upon established metadata standards:
1. Service: Description of available analytical activities (E-RHIS).
2. Device: Documentation of scientific instruments employed (PIDINST).
3. Software: Record of digital tools utilized (CodeMeta).
4. Method: Specification of analytical protocols (E-RHIS, TWG-Archaeometry).
5. Reference Material: Catalogue of calibration standards (GeoReM).
6. Publication: Collection of related digital resources (e.g., Dublin Core).
7. Researcher: Profiles of involved personnel (e.g., FOAF).
8. Laboratory: Information on service providers (e.g., ROR).
The metadata schema is designed to be modular, ensuring each component is interlinked through persistent identifiers. This also facilitates data export in JSON format for integration with electronic laboratory notebooks or as RDF for incorporation into broader knowledge graphs. For the front-end implementation, we are evaluating two open-source software solutions, DSpace and Omeka S. The resulting portal will serve as a single point of entry for laboratory practitioners to register their services and instruments, and for researchers to identify suitable facilities for their investigation.
“Brückenbau zwischen LOD und RSE: Von CIDOC CRM bis Jupyter4NFDI - Ein interdisziplinäres federated Knowledge Graph Ecosystem”
Florian Thiery;
Poster Session
Die digitale Transformation in den objektbezogenen Wissenschaften erfordert eine enge Verzahnung zwischen semantischer Modellierung und nachhaltiger Forschungssoftware-Entwicklung. Dieses Poster zeigt, wie die Community Cluster "Semantic Modelling & Linked Open Data" und "Research Software Engineering" des NFDI4Objects-Konsortiums gemeinsam ein interdisziplinäres federated Knowledge Graph Ecosystem schaffen.
Semantic Web als Fundament: Basierend auf CIDOC CRM und dem Wikiversum (Wikidata, Wikibases) werden heterogene objektbezogene Daten in interoperable Knowledge Graphs transformiert. Diese semantische Grundlage ermöglicht die Föderation von Forschungsdaten aus Archäologie, Cultural Heritage und Geowissenschaften in einem kohärenten NFDI4Objects Knowledge Graph.
FAIR4RS und TADA als Qualitätsframework: Die Anwendung der FAIR4RS-Prinzipien (Findable, Accessible, Interoperable, Reusable for Research Software) und TADA-Prinzipien (Transparent, Accessible, Documented, Auditable) auf FAIRification Tools gewährleistet nachhaltige Softwareentwicklung. Exemplarisch werden Tools wie das SPARQLing Unicorn QGIS Plugin und die Jupyter Python Minions vorgestellt, die als Brücke zwischen semantischen Datenstrukturen und praktischen Forschungsworkflows fungieren.
Jupyter-basierte Infrastrukturdienste: Durch die Integration in Base4NFDI Basic Services, wie Jupyter4NFDI, entstehen reproduzierbare Notebooks zur Abfrage von Triplestores (Wikidata, NFDI4Objects Knowledge Graph) und zur Datenanalyse. Diese ermöglichen es Forschenden, komplexe SPARQL-Queries in benutzerfreundlichen Python-Umgebungen auszuführen und zu visualisieren.
Cultural Heritage Software Catalog: In Kooperation mit der NFDI Section Metadata (WG Software Metadata) und der NFDI Section Common-Infrasstructures (WG RSE) wird ein Cultural Heritage Software Catalog entwickelt. Basierend auf open-archaeo.info werden Softwaremetadaten strukturiert erfasst und in den Basic Service nfdi.software integriert, wodurch die Auffindbarkeit und Nachnutzung domänenspezifischer Tools erheblich verbessert wird.
Community-Vernetzung: Das Projekt ist eingebettet in ein internationales Netzwerk der Computer Applications and Quantitative Methods in Archaeology (CAA), einschließlich der Special Interest Groups SSLA (Scientific Scripting Languages in Archaeology) und Data Dragons (Linked Open Data). Diese Community-getriebene Entwicklung gewährleistet praxisnahe und bedarfsorientierte Lösungen.
Technische Innovation: Tools wie das SPARQLing Unicorn QGIS Plugin zeigen die nahtlose Integration von Semantic Web-Technologien in etablierte GIS-Workflows. Das Plugin ermöglicht (Geo)SPARQL-Abfragen direkt aus QGIS heraus und transformiert Vektordaten in RDF-konforme Linked Open Data.
Nachhaltigkeit und Reproduzierbarkeit: Durch konsequente Anwendung der REAL-Prinzipien (Reproducible, Executable, Attributable, Literal) in Kombination mit community-driven Research Software Engineering entstehen lightweight, modulare FAIRification Tools, die sowohl wissenschaftliche Exzellenz als auch langfristige Nachhaltigkeit gewährleisten.
Dieses Poster zeigt, wie durch die synergetische Verbindung von Semantik und RSE ein robustes, interdisziplinäres Knowledge Graph Ecosystem entsteht, das als Modell für andere NFDI-Konsortien dienen kann.
“DARIAH-DE Repository: A Text+ Service provided for the Humanities Community”
Stefan Buddenbohm, Lukas Weimer;
Poster Session
The DARIAH-DE Repository - or in short: dhrep - is a service for the humanities community by the NFDI consortium Text+.
The repository is suitable for all formats of research data and research data collections from the humanities and cultural sciences. However we recommend to decide for data formats and metadata allowing for re-use and long-term preservation.
This poster presents the service, its benefits and how researchers are able to use the repository to deposit their own data.
“Digitale Brücken. Datenaustausch für den Denkmalschutz”
Johanne Lefeldt, Jessica Preiß;
Poster Session
Aufgrund der Kulturhoheit der Länder haben die meisten Landesämter für Boden- und Baudenkmalpflege unterschiedliche Fachinformationssysteme mit verschiedenen Datenstrukturen zur Erfassung ihrer Objekte. Diese Vielfalt ermöglicht zwar einerseits die explizite Beschreibung und Ansprache der Kulturdenkmäler im jeweiligen Zuständigkeitsbereich, andererseits ist der länderübergreifende Austausch von Denkmaldaten kaum oder nur mit größeren technischen Schwierigkeiten möglich. Ein standardisiertes Modell zum Austausch von denkmalfachlichen digitalen Daten ist bislang ein Desiderat.
Das NFDI4Objects Community Cluster "Protected Heritage Sites" soll diese Lücke füllen. Es bietet ein Diskussionsforum für Fragen des Datenaustauschs in Denkmalschutz und Denkmalpflege und vereint Mitglieder der vielzähligen Landesdenkmalämter Deutschlands sowie weitere interessierte Personen. Es hat zum Ziel, Daten aus diesen Bereichen systematisch zu erschließen, zugänglicher zu machen und den Austausch zwischen den unterschiedlichen Ländersystemen zu vereinfachen. Dafür werden Standards entwickelt, die eine Vergleichbarmachung von Fachvokabularen und technische Mappings zwischen Datenfeldern in unterschiedlichen Informationssystemen erlauben. Im Fokus stehen aktuell vier Standards: zu Kulturerbeobjekten, zu Maßnahmen, zu Schutzobjekten und zu Citizen Science-Daten.
In den vergangenen Sitzungen konnten bereits das Datenmodell zu Kulturerbeobjekten und der Standard für Citizen Science-Daten weitestgehend abgeschlossen und auf einen für die vielen beteiligten Institutionen geeigneten gemeinsamen Nenner gebracht werden.
“Eine CIDOC CRM-basierte Ontologie für semantische Modellierung von Konservierungs- und Restaurierungsprozessen”
Kristina Fischer, Gudrun Schwenk;
Poster Session
Die systematische Erfassung und Nachnutzung von Restaurierungsdaten stellt eine bisher unzureichend erschlossene Chance für die digitale Kulturerbeforschung dar. Restaurator:innen dokumentieren seit Jahrzehnten akribisch Objektzustände, Schadensbilder und durchgeführte Maßnahmen. Diese wertvollen Daten, in Form von Kartierungen, Zustandsprotokollen oder Behandlungsberichten, bleiben jedoch meist isoliert und schwer zugänglich. Die Schwierigkeiten ergeben sich nicht allein aus unzureichender technischer Infrastruktur, sondern insbesondere aus der semantischen Uneindeutigkeit der vorliegenden Daten. Diese erschwert eine eindeutige Interpretation, sodass eine konsistente Verarbeitung und Nutzung im Kontext des Semantic Web nur eingeschränkt möglich ist. Eine in diesem Sinne unstrukturierte Datenhaltung, fehlende Metadatenstandards und heterogene Fachterminologien verhindern die Entwicklung einer systematischen Wissensbasis für geeignete Erhaltungsmaßnahmen unterschiedlicher Schadensbilder.
In Kooperation zwischen dem Verbundprojekt Sammlungen, Objekte, Datenkompetenzen (SODa) und NFDI4Objects/ Task Area 4 wird vor diesem Hintergrund gemeinsam an einer praxisorientierten Lösung in Form einer Domain-Ontologie für Konservierungs- und Restaurierungsdaten gearbeitet, die die fachspezifischen Abläufe eindeutig in strukturierter Weise abbildet und verknüpfbar macht. Der Ansatz folgt dem Grundsatz „aus der Praxis für die Praxis”, indem die Entwicklung auf einer systematischen Analyse realer Dokumentationsworkflows verschiedener Institutionen und Fachdisziplinen beruht. Der parallel in der TWG Community-Standards für kontrollierte Vokabulare und Austauschformate im Bereich der Erhaltung und Pflege des kulturellen Erbes erarbeitete Minimaldatensatz für die Dokumentation von Konservierungs- und Restaurierungsmaßnahmen identifiziert die Kernelemente einer erfolgreichen Dokumentationspraxis, welche in der Ontologie semantisch verknüpft dargestellt werden.
Als konzeptuelle Grundlage für diese Fachontologie dient das CIDOC Conceptual Reference Model (CRM), dessen ereignisorientierter Ansatz eine optimale Grundlage für die Modellierung restauratorischer Arbeitsweisen bietet. Im Fokus stehen die zeitlich verorteten Ereignisse, von der Zustandserfassung mit unterschiedlichen Untersuchungsarten, über die Maßnahmenplanung bis hin zur tatsächlichen Konservierung bzw. Restaurierung. Dabei lassen sich beispielsweise passive Maßnahmen der präventiven Konservierung, die nicht direkt in die Objektsubstanz eingreifen, als Aktivität (E7 Activity) modellieren, während aktiv substanzverändernde Eingriffe an einem Objekt Modifikationen (E11 Modification) darstellen. Diese konzeptuelle Unterscheidung ermöglicht die strukturierte und semantisch unmissverständliche Erfassung komplexer Behandlungsverläufe und die systematische Vergleichbarkeit verschiedener Interventionstypen.
Mit Hilfe der Ontologie können Restaurator:innen die komplexen Zusammenhänge zwischen der Zustandserfassung, der Wahl der geeignetsten Erhaltungsmaßnahme sowie Behandlungserfolge bzw. Erfahrungswerte transparent dokumentieren. Diese standardisierte Erfassung der eigenen Praxis ermöglicht einerseits eine evidenzbasierte Selbstreflexion und nachhaltige Identifikation erfolgreicher Behandlungsstrategien. Perspektivisch eröffnet sich andererseits durch die Integration in übergeordnete Wissensgraphen die Möglichkeit des systematischen Erfahrungsaustausches zwischen Restaurator:innen, wodurch vergleichbare Schadensbilder und Behandlungen identifiziert und Langzeiteffekte von Maßnahmen evaluiert werden können. Gleichzeitig erhalten auch Archäolog:innen, Kunsthistoriker:innen oder Naturwissenschaftler:innen, die mit den gleichen/vergleichbaren Objekten arbeiten, Zugang zu restauratorischem Fachwissen über Materialien und Techniken, während Restaurator:innen wiederum von deren systematisch erschlossenen Kontextinformationen profitieren.
Die in diesem Beitrag vorgestellte Ontologie wird als Open-Source-Ressource mit umfassender Dokumentation bereitgestellt und fließt in die Arbeiten zur übergeordneten NFDI4Objects Object Ontology ein. Erste Pilotanwendungen als WissKI-Implementierungen im Kontext des WissKI Barrels Projekt und im SODa Semantic Co-Working Space sollen die praktische Umsetzbarkeit und den konkreten Mehrwert für die restauratorische Arbeit demonstrieren und evaluieren.
“Ein FAIRer Fachthesaurus für die Konservierung-Restaurierung archäologischer Kulturgüter im Kontext der NFDI4Objects”
Kristina Fischer, Lasse Mempel-Länger;
Poster Session
Die Konservierung-Restaurierung kulturhistorischer Objekte steht vor besonderen Herausforderungen im digitalen Zeitalter. Fachexpertise aus jahrzehntelanger Tradition liegt fragmentiert in isolierten Datenbanken vor, beschrieben mit unterschiedlichen Begrifflichkeiten, die Datenaustausch und interdisziplinäre Zusammenarbeit erschweren.
Eine kürzlich durchgeführte Community-Umfrage [DOI: 10.5281/zenodo.17047277] bestätigt den dringenden Bedarf nach einheitlichen Standards in der Restaurierungspraxis. Die meisten Fachkolleg:innen arbeiten mit eigenen und unveröffentlichten Vokabularen, da etablierte kontrollierte Vokabulare wie der Getty AAT oder die GND nicht ausreichen um spezifische Entitäten der Konservierung-Restaurierung eindeutig zu beschreiben. Der Zugang zu sowie das Austauschen von Erfahrungswerten aus historischen Behandlungsdokumentationen und aktuellen Forschungsergebnissen sind für eine fundierte Entscheidung von geeigneten Erhaltungsmaßnahmen essentiell. Die aktuelle heterogene Datenlandschaft erschwert jedoch effiziente Recherchen und die Entwicklung nachhaltiger digitaler Ressourcen.
Im Rahmen eines TA 4 Use Cases innerhalb von NFDI4Objects wurde daher am LEIZA der "Konservierungs- und Restaurierungsfachthesaurus für archäologische Kulturgüter" semantisch nach gängigen KOS-Standards aufbereitet. Dieser primär deutschsprachige Fachthesaurus basiert auf dem W3C-Standard SKOS (Simple Knowledge Organization System) und folgt den FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable). Die Terminologie wurde systematisch aus digitalen und retrodigitalisierten Dokumentationen aus rund 170 Jahren Restaurierungsgeschichte am LEIZA extrahiert, unterstützt durch Natural Language Processing-Verfahren sowie der Fachexpertise durch die Restaurator:innen des LEIZA. Der Thesaurus umfasst Begriffe zu Konservierungs- und Restaurierungsmethoden, -materialien und Werkzeugen sowie verwandte Konzepte wie archäologische Materialien, Untersuchungsmethoden und Schadensphänomene. Die Inhalte orientieren sich dabei eng an der bisherigen Dokumentationspraxis des LEIZA, wobei ganz klar das Ziel im Fokus steht keine neue Sprache vorzugeben, sondern die vertraute Terminologie der Fachwissenschaftler:innen so aufzubereiten, dass sie zur Grundlage für digitale Anwendungen und KI-gestützte Modelle werden kann.
Jeder Begriff erhält einen eindeutigen Identifier, präferierte und alternative Bezeichnungen, Definitionen, wissenschaftliche Quellenbelege sowie hierarchische, äquivalente und assoziative Beziehungen zu anderen Konzepten. Zur Erhöhung der Interoperabilität wurden erste Mappings zum AAT, der GND und Wikidata implementiert, die perspektivisch erweitert werden sollen. Ebenfalls wurden bereits erste Sprachversionen in englischer Sprache aufgenommen, die zukünftig ebenfalls weiter ausgebaut werden sollen.
Im Fortschritt zur Vorstellung des Thesaurus beim N4O Community Meeting im letzten Jahr ist dieser, neben der inhaltlichen Weiterentwicklung, nun als "first release" über GitHub als SkoHub-Page öffentlich verfügbar [https://www.w3id.org/archlink/terms/conservationthesaurus]. Langfristig ist eine Bereitstellung über offizielle LEIZA-Kanäle und zentrale Vokabularserver geplant. Dieser Use Case demonstriert exemplarisch, wie die Kollaboration zwischen Fachwissenschaft und Software Engineering das Forschungsdatenmanagement in spezialisierten Domänen optimieren kann und damit einen konkreten Beitrag zur Vision der nachhaltigen Vernetzung objektbezogener Forschungsdaten leistet.
“FAIRe Vokabulare und Normdaten für Museen und Sammlungen”
Anja Gerber;
Poster Session
Kontrollierte Vokabulare sind seit Langem zentrale Werkzeuge für die Dokumentation von Sammlungsobjekten. Sie ermöglichen konsistente Beschreibungen und fördern die Nachnutzbarkeit von Sammlungsdaten in übergreifenden Netzwerken. Mit den FAIR-Prinzipien [1] hat sich ein international anerkanntes Leitbild etabliert, das nicht nur in der Forschung angewendet wird, sondern gleichermaßen in Museen und Sammlungen, da Sammlungsdaten enorme Relevanz für die Forschung besitzen.
Die Verwendung FAIRer Vokabulare trägt wesentlich zur semantischen Interoperabilität im Semantic Web bei.
Um ihre Potenziale im Semantic Web voll auszuschöpfen, müssen Vokabulare selbst maschinenlesbar, offen und interoperabel sein. Allerdings bleibt oft unklar, was ein FAIRes Vokabular konkret auszeichnet. Die Publikation der AG Minimaldatensatz [2] wird diese Lücke aufgreifen und eine systematische Übersicht über ausgewählte, im Sammlungskontext relevante Vokabulare anbieten.
Im Zentrum stehen tabellarische Auflistungen der Vokabularinformationen und -eigenschaften, die inhaltliche und technische Informationen bündeln. Diese werden um Indikatoren zur Bewertung des FAIR-Niveaus ergänzt. Grundlage für die Bewertung bilden aktuelle Forschungsarbeiten, insbesondere das Modell von Xu, Juty und Goble (2023) [3], das Kriterien für die FAIRness von Vokabularen definiert. So werden Museen und Sammlungen in die Lage versetzt, fundierte Entscheidungen über den Einsatz geeigneter Vokabulare zu treffen, und es wird ein Beitrag geleistet, das Bewusstsein für die praktischen Bezüge der FAIR-Prinzipien zu schärfen.
Die Publikation versteht sich zugleich als Ergänzung zu der Minimaldatensatz-Empfehlung für Museen und Sammlungen (MDSE). Während dort für entsprechende Datenfelder ein Kernset an Vokabularen vorgeschlagen wird, geht die vorliegende Arbeit darüber hinaus, indem sie zusätzliche, disziplinspezifische Vokabulare einbezieht und deren FAIRness beurteilt. Damit werden Lücken geschlossen, die im Rahmen des MDSE bewusst offen bleiben mussten.
Die Auswahl orientiert sich an der Relevanz für Museen, etwa an den im MDSE genannten Vokabularen, an Ressourcen von museumsvokabular.de sowie an Daten des Instituts für Museumsforschung [4]. Diese erste Publikation konzentriert sich auf die meistgenutzten Vokabulare, während für künftige Arbeiten ein ausgeweiteter Fokus vorgesehen ist..
Die Arbeit leistet damit einen doppelten Beitrag: Zum einen dient sie als praktische Entscheidungshilfe für Museen und Sammlungen, die ihre Daten FAIR publizieren möchten. Zum anderen sensibilisiert sie die Fachcommunity für die strategische Bedeutung von Vokabularen im Kontext von Linked Open Data und digitalen Forschungsinfrastrukturen.
“FAIR und Grün. Nachhaltigkeit im Forschungsdatenmanagement sichtbar gemacht und praktisch gedacht.”
Anja Gerber, Lisa Rosendahl;
Registration
In den letzten Jahren ist angesichts der Dringlichkeit des Klimaschutzes ein wachsendes Bewusstsein für den Ressourcenverbrauch in Forschung und Lehre entstanden. Vielen Forschenden ist jedoch weiterhin unklar, wie sie ihre digitalen Projekte ökologisch nachhaltig betreiben können. Bislang fehlen verbindliche oder breit akzeptierte Leitlinien, wie ökologische Nachhaltigkeit im Datenmanagement konkret umgesetzt werden kann.
Dieses Poster stellt die im April 2025 auf zenodo veröffentlichten Empfehlungen der DHd AG GreeningDH zum ressourcenschonenden Umgang mit Forschungsdaten vor.
Zwei zentrale Schwerpunkte stehen im Fokus: die Vereinbarkeit mit den FAIR- und CARE- Prinzipien sowie fünf praxisnahe Kernempfehlungen (Nachnutzung maximieren, Speicherplatz effizient nutzen, Metadaten optimieren, Veröffentlichung nachhaltig planen, Langzeitarchivierung bewusst steuern). Im Austausch mit den Posterbesucherinnen und – besuchern möchten wir diskutieren, wie diese Empfehlungen bei der Erstellung von Datenmanagementplänen konkret umgesetzt werden können - insbesondere durch eine nachhaltigkeitsorientierte Interpretation bestehender deutscher und europäischer DMP-Templates. Ziel ist es, die Empfehlungen weiterzuentwickeln, gezielt zu verbreiten und Rückmeldungen aufzugreifen, um mögliche Unklarheiten zu identifizieren und praxisnah zu adressieren.
Die AG GreeningDH hatte sich Anfang 2022 im Kontext des Verbandes Digital Humanities im deutschsprachigen Raum (DHd) gegründet, um die Themen der Nachhaltigkeit und einen sparsamen Umgangs mit Ressouren im Kontext der Digital Humanities zu bearbeiten und in den Fokus der Forschung zu bringen.
Referenzen:
Baillot, A., Feidicker, C., Gerber, A., & Roeder, T. (2023, März 10). Greening DH: individuelle Handlungsspielräume und institutionelle Perspektiven. DHd 2023 Open Humanities Open Culture. 9. Tagung des Verbands "Digital Humanities im deutschsprachigen Raum" (DHd 2023), Trier, Luxemburg. https://doi.org/10.5281/zenodo.7715466
Baillot, A., Gerber, A., König, M., & Rosendahl, L. (2025). Empfehlungen der AG Greening DH zum ressourcenschonenden Umgang mit Forschungsdaten. Zenodo. https://doi.org/10.5281/zenodo.15288095
Baillot, A., König, M., Gerber, A., & Rosendahl, L. (2025, September 22). FAIR und Grün. Nachhaltigkeit im Forschungsdatenmanagement sichtbar gemacht und praktisch gedacht. FORGE 2025 - Daten neu denken (FORGE2025), Rostock. https://doi.org/10.5281/zenodo.17178282
Baillot, A., König, M., Gerber, A., & Rosendahl, L. (2025). FAIR und Grün. Nachhaltigkeit im Forschungsdatenmanagement sichtbar gemacht und praktisch gedacht. FORGE 2025 - Daten neu denken (FORGE2025), Rostock. Zenodo. https://doi.org/10.5281/zenodo.17207286
Baillot, A., & Roeder, T. (2023, Dezember 15). Von der Initiative bis zur Praxis: Die DHd-AG Greening DH und das DHCC Toolkit. 6. Expert:innenforum "Nachhaltige Softwareentwicklung in NFDI4Culture", online. Zenodo. https://doi.org/10.5281/zenodo.10392521
Gerber, A., & Rosendahl, L. (2024, Februar 21). Der Weg zum grünen Forschungsdatenmanagementplan. DHd 2024 Quo Vadis DH (DHd2024), Passau, Deutschland. https://doi.org/10.5281/zenodo.10698392
Greening DH (2025). Arbeitsgruppe im Verband "Digital Humanities im deutschsprachigen Raum e.V." https://dhd-greening.github.io/
“Fit für die Deutsche Digitale Bibliothek? - Ihr Fitnessstudio für Daten”
Julia Rössel;
Poster Session
Die Fachstelle Denkmalpflege der Deutschen Digitalen Bibliothek macht ihre Denkmalfachdaten fit für die Zukunft. Wir unterstützen Denkmalpflege Einrichtungen dabei, ihre Datenbestände in hoher Qualität aufzubereiten, im Lieferformat LIDO einzubringen und in der Deutschen Digitalen Bibliothek zusammen mit Daten anderer Kultursparten öffentlich zugänglich zu machen. So werden Ihre digitalen Ressourcen nachhaltig nutzbar für Forschung, Vermittlung und Öffentlichkeit.
“Forschungsdatenmanagement in der Konservierung-Restaurierung - Ergebnisse der Community-Umfrage 2025”
Kristina Fischer, Nathaly Witt, Lasse Mempel-Länger;
Poster Session
Das Thema Forschungsdatenmanagement (FDM) gewinnt in unterschiedlichen Kulturerbedisziplinen zunehmend an Bedeutung. Für die Konservierung-Restaurierung ist der Umgang mit Forschungsdaten jedoch bislang kaum systematisch aufgearbeitet worden. Um ein umfassenderes Meinungsbild zu erhalten, wurde im Frühjahr 2025 durch die TWG Umfeldanalyse zur FDM-Landschaft im Bereich der Erhaltung und Pflege kulturellen Erbes eine Community-Umfrage unter Restaurator*innen durchgeführt. Ziel war es, den aktuellen Stand der Praxis, wahrgenommene Herausforderungen sowie Bedarfe im Hinblick auf FDM zu erfassen.
Die Ergebnisse zeigen deutlich, dass FDM in der Fachcommunity als wichtig anerkannt, in der praktischen Umsetzung jedoch oft als abstrakt und komplex empfunden wird. Viele Befragte empfinden den Umgang mit Forschungsdaten nicht als integrativen Bestandteil ihrer Arbeit, sondern als zusätzliche Belastung. Als zentrale Bedarfe wurden einheitliche Standards, insbesondere für die Dokumentation von Konservierungs-Restaurierungsmaßnahmen, eine bessere Infrastruktur sowie niedrigschwellige Weiterbildungs- und Schulungsangebote benannt. Diese Ergebnisse bestätigen Vermutungen, die in der Fachwelt bereits kursieren, liefern nun aber erstmals eine datengestützte Grundlage für weitere Diskussionen und Maßnahmen.
Die Primärdaten der Umfrage werden offen über ein zitierbares GitHub-Repository zugänglich bereitgestellt [DOI 10.5281/zenodo.17047277]. Zusätzlich wurde auf Grundlage der Ergebnisse ein White Paper erarbeitet, das die statistische Auswertung sowie Handlungsempfehlungen zur Förderung des FDM in der Konservierung-Restaurierung diskutiert. Dieses White Paper wird zum Zeitpunkt des NFDI4Objects Community Meetings in der öffentlichen Kommentierungsphase der Commons-Prozesse sein. Das vorgestellte Poster dient daher nicht nur der Präsentation der Umfrageergebnisse, sondern auch der aktiven Bewerbung dieser Beteiligungsmöglichkeit. Fachkolleg*innen aus Archäologie, Konservierung-Restaurierung und den Digital Humanities sind eingeladen, das White Paper kritisch zu begleiten und durch Kommentare zu ergänzen.
Mit diesem Vorgehen soll die Diskussion um FDM in der Konservierung-Restaurierung über die eigene Fachcommunity hinaus geöffnet werden. Gleichzeitig wird ein Beitrag zur Entwicklung gemeinsamer Datenstandards und Infrastrukturen geleistet, die nicht nur für Restaurator*innen, sondern auch für die wissenschaftliche Forschung insgesamt von Relevanz sind.
“Fund-Logbuch. Digitale Erfassung archäologischer Kleinfunde in der Citizen Science”
Johanne Lefeldt, Jessica Preiß, Veit Dresely, Christin Keller;
Poster Session
Mit der Fund-Logbuch App und der zugehörigen Datendrehscheibe bei der VZG wird eine zentrale digitale Infrastruktur zur Erfassung archäologischer Kleinfunde geschaffen. Diese werden überwiegend von Sondengänger:innen, Ehrenamtlichen und Zufallsfinder:innen gemeldet und stellen wichtige Informationen für die gesetzlich verankerte Bodendenkmalpflege dar. Gleichzeitig handelt es sich dabei um eine bedeutsame, aber bislang zu wenig beachtete wissenschaftliche Quelle für die archäologische Forschung, die Auskunft über im Boden verborgene Denkmäler geben kann.
Bisher gelangen die Meldungen solcher Funde nur mit hohem Arbeitsaufwand in die wissenschaftlichen Fachsysteme. Analoge Erfassungsprozesse sind für Finder:innen wie auch Denkmalbehörden zeitintensiv und fehleranfällig. Sie führen zu Verzögerungen bei der wissenschaftlichen Auswertung sowie konservatorischen Maßnahmen, und die Daten gelangen oft erst spät oder gar nicht in die Forschungscommunity.
Das Vorhaben begegnet diesen Herausforderungen durch die Entwicklung einer durchgehend digitalen Infrastruktur: Mit einer mobilen App, einer zentralen Datenbank sowie Webportalen für Finder:innen und Behörden werden Fundmeldungen künftig standardisiert, fehlerarm und direkt maschinenlesbar erfasst. Über normierte Schnittstellen und den Einsatz von im Rahmen von NFDI4Objects entwickelten Standards gelangen die erfassten Daten nahtlos in die Fachinformationssysteme der Landesdenkmalämter und werden interoperabel und nachhaltig aufbereitet, und können so der Forschung verfügbar gemacht werden.
Ziel des Fund-Logbuchs ist es, die Sichtbarkeit und wissenschaftliche Nutzbarkeit von Citizen-Science-Daten in der Archäologie zu steigern, die Einbindung ehrenamtlicher Akteur:innen zu stärken und sicherzustellen, dass archäologische Neufunde schnell in Forschung und Denkmalschutz einfließen. Mit dem Vorhaben entsteht ein praktisch nutzbarer und vielversprechender Dienst, der Dank der Mitwirkung von NFDI4Objects standardbasiert und anschlussfähig sein wird.
“Fundstellen- und Denkmaldaten-Standards. Erste Eindrücke einer Umfrage”
Johanne Lefeldt, Jessica Preiß;
Poster Session
Im Frühjahr 2025 führte die Denkmal-Kerngruppe der Temporary Working Group (TWG) "Umfeldanalyse zur FDM-Landschaft im Bereich der Erhaltung und Pflege kulturellen Erbes" eine Expertenumfrage durch, um zu ermitteln, wie in Deutschland Denkmal- und Fundstellendaten strukturiert und beschrieben werden. Außerdem sollte eine Evaluierung existierender Standards und Vokabulare erfolgen sowie erfasst werden, welche Bedarfe an zusätzlicher Standardisierung bestehen.
Die Umfrage richtete sich an Landesdenkmalämter und andere Institutionen, die Informationen zu Fundstellen, Schutzflächen, Boden-, Bau-, Kulturdenkmalen u. ä. verwalten, beschreiben und austauschen. Sie ist als Faktenerhebung zu verstehen und sollte den gegenwärtigen Sachstand abbilden.
An der Umfrage nahmen Vertreter:innen von 22 unterschiedlichen Institutionen aus verschiedenen Fachgebieten teil. Damit kann zwar nicht die gesamte Bandbreite der Landesämter abgebildet werden, dennoch entsteht ein guter Eindruck über den Aufbau der gängigen Fachinformationssysteme und die verwendeten Standards. Die Ergebnisse zeigen zudem, dass das geplante Aufgabenprogramm von NFDI4Objects bestehende Bedarfe anspricht: Insbesondere im Bereich Citizen Science und Schutzflächen besteht Interesse an konkreten Tools und Anknüpfungspunkten.
Die Ergebnisse der Umfrage werden aktuell in einem Whitepaper zusammengefasst und sollen im Rahmen der N4O-Commons veröffentlicht werden. Zukünftig sollen sie die Grundlage für die bedarfsorientierte Entwicklung neuer, länderübergreifender Standards zum Austausch von Denkmal- und Fundstellendaten im Rahmen des Arbeitsprogramms von NFDI4Objects bilden.
“HERMES – Datenkompetenzen für die Geisteswissenschaften stärken”
Ksenia Stanicka-Brzezicka, Aline Deicke;
Poster Session
Seit 2023 entwickelt HERMES (https://hermes-hub.de/) innovative Formate, um digitale Forschungspraxis und Datenkompetenzen langfristig in den Geisteswissenschaften zu verankern. Im Mittelpunkt steht der Aufbau nachhaltiger Unterstützungsstrukturen – disziplin-, institutions- und qualifikationsübergreifend.
Auf dem Markt der Möglichkeiten stellen wir zentrale Angebote vor – etwa den HERMES-Hub, eine Plattform zur Vermittlung von OERs, Tools und Veranstaltungen sowie der Expertbase: einer neuartigen Suchumgebung zur Sichtbarmachung digitaler Fachkompetenzen.
In Zusammenarbeit mit NFDI-Konsortien wie NFDI4Culture, NFDI4Memory und NFDI4Objects sowie anderen Datenkompetenzzentren entstehen gemeinschaftlich nutzbare Angebote – etwa zu KI-Literacy, Metadatenstandards, Taxonomien oder qualifikationsbezogenen Lernpfaden.
Formate wie die Data Challenge oder Bring-Your-Own-Data-Labs schaffen Resonanzräume für methodische Reflexion, interdisziplinären Austausch und experimentelles Arbeiten mit Forschungsdaten – und fördern so eine neue, datenbewusste Forschungskultur.
Die Transferwerkstatt bietet Raum für Co-Creation an der Schnittstelle von Forschung, Infrastruktur und Vermittlung. Die WissKomm Academy stärkt gezielt kommunikative Kompetenzen in der Wissenschaft.
Mit diesen und weiteren Formaten verbinden wir strukturelle Rahmenbedingungen mit Community Building und gezielter Kompetenzvermittlung.
Unser Poster lädt ein zum Austausch über Kooperationspotenziale, Nachnutzungsideen und gemeinsame Entwicklungsperspektiven im Bereich digitaler geisteswissenschaftlicher Infrastruktur.
“Increasing the discoverability of research services and resources through contextualization and community use cases in the SSH Open Marketplace”
Stefan Buddenbohm;
Poster Session
Introduction
The Social Sciences and Humanities Open Marketplace (SSHOMP*) - marketplace.sshopencloud.eu - is a discovery portal for Social Sciences and Humanities research communities. It showcases solutions and research practices for the research data life cycle and facilitates discoverability and findability of resources that are essential to enable sharing and re-use of workflows and methodologies. With a population of ~5000 items, aggregated from 15+ trusted sources, the SSHOMP relies on community curation to ensure the catalogue remains up-to-date and useful for researchers. Furthermore, curation routines, mixing automatic and manual tasks, are set up to ensure and continuously improve (meta)data quality.
Contextualization and use cases
Contextualization is one of the key pillars of the SSHOMP (Barbot et al. 2024). It is meant to provide a discovery portal for tools and services, while placing these tools and services in context via publications, training materials, datasets, and workflows. As such, these last four categories are indexed in the SSHOMP insofar as they can be placed in relation with tools and services. This is an objective we are pursuing, through the automatic creation of relations and their manual curation, and through encouraging authors to create relations to other items when they create new items. This poster shows how the SSHOMP facilitates diverse methods of studying the past via contextualization of resources, relying on three community use cases:
The integration of items created within the scope of the ATRIUM project
The integration of items created within Text+ and DARIAH-DE
The integration potential of items, including workflows, originating from a DARIAH WG dealing with historical data
ATRIUM Project
The network analysis below shows how the SSHOMP provides insights into the use of tools, methods and standards in the DH research communities, and how it increases serendipity in the discovery of new methods and standards, by interlinking the resources and describing workflows. These relations demonstrate how inter-related this specific catalogue of tools is with the overall catalogue, and the broad impact that initiatives like ATRIUM can have on the community.
Text + and DARIAH-DE
Text+ along with the Society for Humanities and Cultural Research (GKFI), use the SSHOMP as an aggregator and delivery service to present their offerings. Much like ATRIUM, resources are tagged in the Marketplace with minimal metadata and harvested regularly via the API, allowing for the portals of Text+ and GKFI to display over 80 services on institutional websites with minimal effort - needing only to implement harvesting and display: creation and curation of resources are managed solely through the Marketplace, which is a huge benefit for both entities.
Barbot, L., Battaner Moro, E., Buddenbohm, S., Concordia, C., Dolinar, M., Ďurčo, M., Gray, E., Grisot, C., Illmayer, K., Kirnbauer, M., Kleemola, M., König, A., Kurzmeier, M., McGillivray, B., Parente Boavida, C., Schuster, C., Vipavc Brvar, I., & Wnuk, M. (2023, Juni 30). The Social Sciences and Humanities Open Marketplace: contextualising digital resources in a registry. Digital Humanities 2023. Collaboration as Opportunity (DH2023), Graz, Austria. https://doi.org/10.5281/zenodo.8107637
“Managing Complexity: A Digital Management System for Experimental Archaeology”
Ghaus;
Poster Session
Archaeology employs experimentation to understand past human behaviors, technologies, and cultural practices through hands-on reconstruction and testing. Archaeologists generate complex datasets requiring meticulous documentation to ensure scientific validity.
Critical gaps exist in documentation and reporting of experiments. There is no agreement on what metadata should be reported and in which form. Paradata—the intellectual processes behind interpretative decisions—are rarely reported, yet it is crucial for understanding experimental reasoning and enabling replication. Sample preparation protocols vary widely between researchers and institutions, while analytical procedures often lack documentation for independent verification. These challenges are compounded by experimental archaeology’s interdisciplinary nature drawing on fields like materials science, anthropology, engineering, each with distinct methodological traditions.
This workshop introduces a comprehensive, open-source experiment management system developed in the frame of the NFDI4Objects consortium designed to address the fundamental challenges in experimental archaeological research. DMSEA provides a visual flowchart interface allowing researchers to map experimental procedures intuitively, making complex multi-step processes accessible and reproducible.
Key capabilities include seamless integration with lab instruments and electronic notebooks, enabling real-time data capture and reducing manual transcription errors. Experiments can be exported in open formats to ensure compatibility with different publication and archival requirements. Specific experimental data can be extracted separately for targeted analysis.
Recognizing the diverse needs of the experimental archaeology community, the system is designed for maximum accessibility and adaptability. It processes multimedia content including images, videos, dictionaries, taxonomies, and ontologies—essential for capturing the rich, multi-modal nature of experimental data in archaeology.
This approach to experiment management aims to enhance reproducibility, share knowledge, standardize methodologies, and advance scientific rigor. The system is currently under development and we hope to gather community feedback with this presentation.
“Materialität in Raum und Zeit: Datenstrukturen für Objekteigenschaften und 3D-Digitalisate von Sammlungsgut”
Simon Albers, Sarah Thompson;
Poster Session
Im Mittelpunkt des Forschungsverbundes DiViAS (Digitalisierung, Visualisierung und Analyse von Sammlungsgut) steht – neben der Extraktion und Analyse von Schiffsrouten aus Logbüchern – die Transformation physischer Sammlungsobjekte in die digitale Welt. Mittels der 3D-Digitalisierung sollen die Materialität der Objekte charakterisiert, Herstellungstechniken nachgewiesen und Forschungen der Kultur- und Geschichtswissenschaft unterstützt werden. DiViAS verbindet dabei transdisziplinär Expertise aus dem Bereich der Geschichts- und Kulturwissenschaften, der 3D-Messtechnik und der Data Science.
Mittels Methoden der optischen 3D-Messtechnik werden die Sammlungsstücke dreidimensional digitalisiert, um diese der interessierten Öffentlichkeit, Forschenden und Herkunftsgesellschaften im Sinne der FAIR- und CARE-Prinzipien weltweit zur Verfügung zu stellen. Hierbei ist zu beachten, dass sich Digitalisate, beziehungsweise 3D-Modelle, stark in ihrer Qualität, ihrem Anwendungsfeld und ihrem generellen Erscheinungsbild unterscheiden können. Zudem können 3D-Modelle mit zusätzlichen Informationen versehen werden, die in ihrer eigenen Datenstruktur nicht berücksichtigt werden können und entsprechend mittels zusätzlicher Metadatendatei mitgeführt werden müssen. Die 3D-Modelle müssen zudem mit der Sammlungsdokumentation im Landesmuseum Natur und Mensch Oldenburg (LMNM) zusammengeführt werden, die wiederum eigene spezifische Anforderungen aufstellt. Im einfachsten Fall kann hierfür mit einem Link auf das 3D-Modell verwiesen werden, das wiederum auf einer entsprechenden Plattform abgelegt ist. Hierbei muss die dauerhafte Speicherung gewährleistet werden, um defekte Verweise zu verhindern. Gleichzeitig ist gegebenenfalls eine weitere Datenbankstruktur notwendig, um die Metadaten der 3D-Modelle mitzuführen. Auch zu lösen ist, wie die Metadaten in Suchabfragen berücksichtigt werden können. Neben der Problemstellung sollen im Rahmen der Postervorstellung mögliche Vorschläge für Metadaten über 3D-Modelle im Hinblick auf ableitbare Vergleichsparameter, Qualitätsmaße und Analyseergebnisse dargelegt werden.
Hinsichtlich der Sammlungsdokumentation im LMNM bilden größtmögliche Transparenz (FAIR) und Datenethik (CARE) zumindest teilweise einen Widerspruch. Denn wie spricht man sensible Objekte an, welche Daten werden zu einem solchen Objekt veröffentlicht und wie finden wir einen Umgang mit Objekten, die sich unserer heutigen Kenntnis komplett entziehen, also keine Ansprache zulassen. Weitere Fragen betreffen die zeitliche und räumliche Unschärfe, die u.U. mit den CARE-Prinzipien, z. B. bei der Nennung alter Ortsangaben, in Konflikt stehen. Ferner ist die Multiperspektivität auf die Objekte ein bislang ungelöstes Problem. Hierzu müssen die Metadatenschemata entsprechend angepasst werden, damit eben auch die verschieden Perspektiven auf ein Objekt sichtbar werden.
Eine ähnliche Herausforderung stellt die Notwendigkeit dar, wichtige Informationen über die Materialität von Objekten so zu erfassen, dass sie über äußerst vielfältige Einträge hinweg reproduzierbar sind und einen nützlichen, möglichst objektiven Rahmen bieten, innerhalb dessen nach bestimmten Aspekten von Objekten gesucht werden kann. Von scheinbar einfachen Angaben (wie der Farbe eines Objekts) bis hin zu den Ergebnissen wissenschaftlicher Analysen und der Erfassung veränderter oder hybrider Materialität aufgrund von Konservierungs-/Restaurierungsmaßnahmen (sowohl historisch als auch modern) erfordert die physische Herkunft jedes digitalen Objekts besondere Aufmerksamkeit hinsichtlich der Art und Weise, wie solche Daten eingegeben werden.
Gemeinsam mit seinen Verbundpartnern sucht DiViAS für diese Problemstellungen nach effizienten und übertragbaren Lösungen für das kulturelle Erbe.
“Minimaldatensatz für die Dokumentation von Konservierungs- und Restaurierungsmaßnahmen (KuR-MDS) - Ein Community-basierter Ansatz zur Standardisierung restaurierungsbezogener Daten”
Kristina Fischer, Nathaly Witt;
Poster Session
Die Dokumentation von Konservierungs- und Restaurierungsmaßnahmen an kulturellen Objekten erfolgt bisher in heterogenen, wenig standardisierten Formaten. Diese Fragmentierung erschwert den Datenaustausch zwischen Institutionen, die Nachvollziehbarkeit von Behandlungshistorien und die vergleichende Forschung. Die TWG Community-Standards für kontrollierte Vokabulare und Austauschformate im Bereich der Erhaltung und Pflege des kulturellen Erbes entwickelt seit Anfang des Jahres einen Minimaldatensatz zur standardisierten Erfassung von Konservierungs- und Restaurierungsmaßnahmen. Ziel ist es, aus bestehenden Dokumentationspraktiken einen community-basierten Standard zu etablieren, der technische Interoperabilitätsstandards und fachliche Anforderungen verschiedener Restaurierungsdisziplinen berücksichtigt.
Der Entwicklungsprozess folgt einem partizipativen Ansatz. Grundlage bildet eine Community-Umfrage, die sowohl ein allgemeines Meinungsbild zum Forschungsdatenmanagement in Konservierung-Restaurierung sowie zu den für eine umfassende Dokumentation erforderlichen Informationen erhob. Darauf aufbauend integrierten die Fachexpert:innen der TWG Erkenntnisse aus ihren institutionellen und disziplinären Erfahrungen. Das entwickelte Datenmodell wurde iterativ im Community Cluster Conservation Science und in direkten Feedbackgesprächen verfeinert und optimiert. Rückmeldungen aus Expert:innen-Runden mit Dokumentationsmanager:innen und Infrastrukturanbieter:innen (z.B. LIDO DE-AG des Deutschen Museumsbund e.V.) flossen ebenfalls in die Weiterentwicklung ein.
Der Minimaldatensatz fokussiert sich bisher auf inhaltliche Standards und folgt strukturell etablierten Dokumentationstraditionen. Er umfasst Erfassungselemente aus drei übergeordneten Bereichen: Allgemeine Objektdaten (Identifikation, Titel, Beschreibung, Datierung, etc.), die nicht von Restaurator:innen selbst erhoben, sondern sekundär nachgenutzt als essentieller Bestandteil einer vollständigen Restaurierungsdokumentation erachtet werden. Den Kernbereich bildet die strukturierte Erfassung verschiedener Interventionen, von Zustandserfassung, Untersuchungen und Probeentnahmen bis zu Konservierungskonzept und -durchführung. Der dritte Bereich besteht aus Empfehlungen zum weiteren Objektumgang (z. B. Lagerungsbedingungen, präventive Konservierung, etc.). Zudem ergänzen administrative Metadaten (Verantwortlichkeit, Lizenz, etc.) der Dokumentation den Entwurf.
In jedem Bereich sind Pflichtfelder, bedingte Pflichtfelder sowie empfohlene und optionale Felder definiert, die fachbereichs- und institutionsspezifisch angepasst werden können. Eine simulierte Eingabemaske als statische Webseite veranschaulicht den aktuellen Entwurf (https://conservationdata.github.io/docu/#/).
Die Dokumentation von Konservierungs-Restaurierungsmaßnahmen entspricht im Wesentlichen einer Aktivitätendokumentation, sodass sich die Anwendung ereignisorientierter Standards wie CIDOC CRM und LIDO empfiehlt. Eine zukünftige Modellierung nach LIDO ist daher, nach Festlegung des inhaltlichen Standards im Rahmen des aktuellen Community-Prozesses, bereits angedacht.
Aktuelle Herausforderungen bei der Entwicklung des Minimaldatensatzes umfassen die Balance zwischen generischer Breite, fachlicher Vollständigkeit und praktischer Umsetzbarkeit. Die aktuelle Arbeitsphase fokussiert sich auf Feedback und Einbindung der weiteren Community zur Finalisierung des Inhalts.
Dieses Work-In-Progress-Projekt adressiert zentrale Wünsche der Community zur Standardisierung restaurierungsbezogener Forschungsdaten und trägt zur Entwicklung nachhaltiger Datenmanagement-Lösungen bei.
“Minimalmetadaten-Terminologie für Geophysikalische Prospektion in der Archäologie”
Till Sonnemann, Ulrike Werban;
Poster Session
Das Community Cluster Geophysikalische Prospektion arbeitet an einem Format, um geophysikalische Daten einer archäologischen Stätte den FAIR-Prinzipien entsprechend aufzubereiten. Um die von wissenschaftlichen Instituten, Prospektionsfirmen oder archäologischen Landesämtern erhobenen Daten langfristig auffindbar, zugänglich, interoperabel und wiederverwendbar zu machen, sind zusätzliche Metadaten erforderlich, die klar und eindeutig definiert sein sollten.
Eine Expertenbefragung der Archäogeophysik-Community in Deutschland 2023 hat gezeigt, dass es für die Übergabe dieser Daten an die jeweilig zuständigen Landesämter bisher jedoch keine einheitlichen Standards gibt. Auch fehlt ein standardisiertes Metadaten-Vokabular, was zwingend notwendig wäre, um Metadaten für Menschen und Maschinen einheitlich verständlich und nutzbar zu machen.
Im Rahmen von TRAIL 1.2 – Fernerkundung im Römischen Rheinland wurde der Umgang mit Metadaten anhand verschiedener geophysikalischer Messungen anschaulich gemacht. Eine Ackerfläche mit archäologischen Überresten einer römischen Villa in Flerzheim (NRW) nahe Bonn diente im Herbst 2024 zur Erstellung eines Beispieldatensatzes. Der archäologisch interessanteste Teil des Zielobjekts wurde in kooperativen Geländearbeiten mit den gängigsten Methoden der Archäogeophysik, d.h. Magnetik, Georadar, Geoelektrik und Elektromagnetik, prospektiert. Ergänzt wurden die geophysikalischen Messungen durch eine über zwei Jahre andauernde regelmäßige Drohnenbefliegung zum Monitoring der Bewuchsmerkmale.
Die gesammelten Daten dienten zusammen mit den zugehörigen Aufnahmeprotokollen als Diskussionsgrundlage zur Erarbeitung einer standardisierten Metadaten-Terminologie, dessen Ansatz dem Community Cluster Geophysikalische Prospektion im Juni 2025 zur Diskussion vorgestellt wurde.
Geophysikalische und Fernerkundungsdaten unterscheiden sich nicht nur im Dateiumfang und der Komplexität der Prozessierung, sondern auch durch die damit verbundenen Metainformationen. Ein Ziel war, die benötigten Basisinformationen zu identifizieren und zu klassifizieren, um so eine grundlegende Minimalmetadaten-Terminologie für die vier überwiegend angewendeten geophysikalischen Methoden in der Archäologie zusammenzustellen. Diese zusammengetragenen Begriffe sollten sich daran orientieren, dass (1) die Messung und deren Ergebnisse nachvollziehbar sind, und (2) vorhandene Datensätze später oder von anderen Personen als den ursprünglichen Datenproduzenten erneut prozessiert werden könnten - im Sinne der FAIR-Prinzipien.
Klassifiziert wurde nach den Kategorien Methode, Sensor, Messgröße, Messung/Aufbau, Datenaufnahme, Prozessierung
denen jeweils Unterkategorien mit allgemein verwendeten Fachbegriffen zugeordnet wurden, wie auch (wenn existierend) die Messeinheiten. Die Konzeption befindet sich derzeit im Evaluierungsprozess.
Nach der Evaluierung werden die Begrifflichkeiten mit der OpenSource-Software Protegé ontologisch aufbereitet und in ein skos-konformes System übertragen. Das Konzept eines offen nutzbaren und standardisierten Geophysik-Vokabulars soll mit den Vorhaben von NFDI4EARTH und FAIRagro abgestimmt und folgend als Angebot über NFDI4Objects der archäologischen Community zur Verfügung gestellt werden. Das Vokabular soll zweisprachig auf Deutsch und Englisch zur Verfügung gestellt werden.
“Multifunctional Data in a Multifunctional Landscape”
Ulrike Werban;
Poster Session
Near-surface geophysical data play a crucial role in multiple scientific domains, including precision agriculture, archaeological prospection and Earth System Sciences. Although the applied methodologies and sensor technologies are often similar, or even identical, data processing, (meta)data handling, and long-term archiving practices remain highly fragmented. This fragmentation limits cross-domain research data interoperability, comparability, accessibility and reusability. To address these challenges, we initiated a three-phase concept to integrate efforts across three key NFDI consortia: FAIRagro, NFDI4Objects and NFDI4Earth.
The primary objective of this initiative is to develop a harmonized framework for geophysical data workflows, ensuring that FAIR (Findable, Accessible, Interoperable, and Reusable) principles are consistently applied across disciplines. By leveraging expertise from agricultural research (FAIRagro), archaeology and cultural heritage (NFDI4Objects), and environmental and Earth System Sciences (NFDI4Earth), the initiative aims to establish standardized data formats, metadata schemas and best practices for geophysical data handling. In addition, it will foster interoperability between existing research infrastructures and promote sustainable data management.
Agricultural prospection (“agrogeophysics”) focuses on assessing soil variability, soil moisture distribution and nutrient status, which are essential for precision farming (Garré et al., 2021; Rhymes et al., 2023). The great advantage of agrogeophysical methods lies in their rapid application, cost-effectiveness, and spatial coverage and thus can easily be integrated in precision farming practices in terms of both prospection and monitoring.
The first project phase begins in October 2025. In this phase, Electromagnetic Induction (EMI) will be used to map soil conductivity as an indicatior for soil texture, soil water content and salinity, while Gamma-Ray Spectroscopy (GRS) will provide additional insights into soil texture (clay content), thereby supporting management decisions. Investigations will be conducted at a representative pilot site, which will serve as a testbed for acquiring and systematically analyzing comprehensive near-surface geophysical data across the three disciplines. The selected site is of particular interest to agriculture, archaeology, and Earth System Sciences, as it exhibits characteristics relevant to all fields. The focus will be on developing harmonized workflows from data acquisition to archiving, establishing standardized data and metadata structures, and defining cross-disciplinary best practices to ensure the multi-purpose usability of datasets.
“NFDI4Objects Communit Hub”
Julian Hollaender;
Poster Session
Der NFDI4Objects Community Hub ist die zentrale Plattform für alle Interessierten am FDM im Feld der materiellen Kultur- und Objektwissenschaften. Hier diskutieren wir Einreichungen für unsere Commons, feilen gemeinsame an Lösungen für nachhaltiges FDM und bieten Raum zur Vernetzung.
“Poseidon2LOD”
Mattis thor Straten, Florian Thiery, Stephan Schiffels;
Poster Session
Integrating complex, interdisciplinary datasets remains a central challenge in digital archaeology and cultural heritage research. In particular, archaeogenetic datasets require standardised storage and formats, as well as interoperable semantic integration with archaeological and natural science data.
The Poseidon Framework meets this need by providing a community-maintained archive for archaeogenetic human genotype data. It implements the FAIR principles through a structured package format, command-line tools and open submission workflows. The Poseidon Community Archive (PCA) enables the reproducible reuse of data by linking genomic information with archaeological and laboratory metadata, with transparent provenance and validation mechanisms in place to support this.
To facilitate integration of Poseidon data with other archaeo-natural datasets and the NFDI4Objects Knowledge Graph (N4O KG), the presented workflow converts the PCA data into interoperable RDF data.
This workflow operates on two levels: (i) data-level standards are established by parsing PCA metadata into RDF triples and enriching them with external identifiers; and (ii) schema-level standards are ensured through the Archaeo-Natural Ontology (ArNO).
Grounded in CIDOC CRM, but extended with classes from complementary ontologies, ArNO provides a shared semantic foundation for representing archaeo-natural entities and relations. It enables the consistent mapping of heterogeneous data sources and facilitates their integration into the CIDOC-CRM–based N4O KG.
The RDF transformation process consists of several steps.
First, averaged coordinate information is derived for sites and places from their associated discovery sites. These entities are then linked to external gazetteers, such as GeoNames and Wikidata, using label similarity and spatial matching.
Next, bibliographic metadata are harmonised via the CrossRef API to ensure persistent identifiers, such as DOIs and ORCIDs.
Finally, the extracted archaeological, genetic and bibliographic information is translated into ArNO-compliant RDF triples. A demo dataset comprising ancient DNA samples illustrates this approach.
This work demonstrates how Poseidon data can be converted into Linked Open Data, ensuring interoperability across domains. By considering the ArNO ontology and leveraging external authority services, this paves the way for the integration of the archaeo-natural data in NFDI4Objects Task Area 3 using graph structures, such as Heterogeneous Information Networks or Knowledge Graphs. This enhances the potential for cross-dataset synthesis and reproducible research, and prepares the ground for advanced analytical methods.
Ultimately, Poseidon2LOD contributes to a broader FAIR data ecosystem within NFDI4Objects Task Area 3, supporting the interdisciplinary exploration of the human past through semantically enriched, computationally accessible datasets.
“Preserving Humanities Research Data: Data Depositing in the TextGrid Repository”
Stefan Buddenbohm, Lukas Weimer;
Poster Session
This poster introduces a revised publication workflow for textual research data in the TextGrid Repository. This repository supports the accessibility and reusability of research outputs in the humanities. The new workflow simplifies the publication process by integrating familiar tools such as TEI, XPath, Git, and Jupyter Notebooks. This reduces the technical burden for users, while still ensuring metadata quality controls. For these reasons, we refer to the new workflow as fluffy, emphasising its ease of use.
The workflow also allows for metadata enrichment without altering original data files, improving overall data and metadata quality and aligning with FAIR principles (Findable, Accessible, Interoperable, Reusable). By showcasing completed research projects, we demonstrate how the workflow enhances the discoverability and citation of published outputs. The paper concludes by outlining future steps to integrate the workflow with additional services, aiming for a more user-friendly experience and higher metadata quality.
“SODa – Sammlungen, Objekte, Datenkompetenzen (Collections, Objects, Data Literacy)”
Louise Tharandt;
Poster Session
SODa – Sammlungen, Objekte, Datenkompetenzen (Collections, Objects, Data Literacy) is a collaborative project focused on establishing a Data Literacy Center for academic collections in Germany. With over 1,200 collections spanning nearly all scientific disciplines, Germany's academic landscape holds an unparalleled resource of knowledge and data. These collections serve as critical infrastructures for research, teaching, and knowledge transfer, while preserving valuable cultural and scientific heritage. The German Council of Science and Humanities has emphasized their extraordinary importance for science and has emphatically called for them to be expanded as research infrastructures. However, their potential can only be fully realized through effective digitization and innovative digital methods.
SODa addresses these challenges by fostering data literacy and building digital infrastructure to advance the digitization, accessibility, and usability of academic collections. It acts as a networking, learning, and research platform, promoting interdisciplinary collaboration, sharing of best practices, and the development of sustainable research infrastructures. SODa integrates expertise from research, teaching, and collection management to provide essential data competencies tailored to the diverse needs of collection managers, researchers, and technical staff.
SODa enables the exploration, discussion, and refinement of standards, good practices, and innovative methods in collection-based research data management, analysis, and reuse. The project emphasizes a holistic approach to the digital cultural shift, offering tools and training designed to unlock the potential of academic collections. These include personal consultations, workshops, summer schools, and freely accessible open educational resources. Additionally, SODa’s Semantic Co-Working Space (SCS) provides targeted support and digital tools for digitization projects, enabling high-quality, sustainable, and standard-compliant digitization of collection data.
A key focus of SODa is advancing the research data lifecycle, including cataloging, digitization, long-term preservation, and data reuse. By leveraging innovative digital methods such as 2D and 3D object visualization, machine learning, and structured data analysis, SODa fosters new avenues for research and enhances traditional methodologies. Provenance research, restoration documentation, and data-driven object analysis are central to its efforts.
Through its partnerships with Humboldt-Universität zu Berlin, Friedrich-Alexander-Universität Erlangen-Nürnberg, the Germanisches Nationalmuseum Nürnberg, and the IGSD - Interessengemeinschaft für semantische Datenverarbeitung e.V., SODa strengthens interdisciplinary collaboration and contributes to national and international research initiatives, including the National Research Data Infrastructure (NFDI).
By addressing gaps in digital infrastructure and expertise, SODa ensures that academic collections remain dynamic resources for innovation, contributing to the advancement of Germany's research landscape and fostering international connectivity. Its diverse portfolio of activities and resources establishes SODa as a cornerstone for developing sustainable, interdisciplinary solutions for the digitization and utilization of academic collections.
“Survey2GIS Data Processor”
Julian Hollaender, Steffen Berger, Jonas Abele;
Poster Session
Das QGIS Plug In Survey2GIS Data Processor erlaubt die fehlerfreie Erzeugung von in der archäologischen Feldarbeit aufgenommenen Geometrien anhand der Messdateien direkt in QGIS. Hier werden Anwender:innen über die neuesten Entwicklungsschritte, Funktionalitäten und Updates informiert.
“TA2 - Collecting: Collection Management”
Angela Berthold, Frank von Hagel;
Poster Session
Das Poster stellt einen der Kernbereiche der TA2-Collecting - das Collection Management inkl. aktueller Themen, Paper und anderer Arbeitsergebnisse vor.
“TA 2 Collecting - Digitale Provenienzforschung”
Angela Berthold;
Poster Session
Das Poster stellt einen zentralen Bereich der Task Area - die Digitale Provenienzforschung - mit ihren Aktivitäten, TWGs, Papern und zukünftig geplanten Arbeiten vor.
“TA 6 Arbeitsbereich Integration & Harmonization. Aufgaben und bisherige Ergebnisse”
Anja Gerber;
Poster Session
TA 6 Arbeitsbereich Integration & Harmonization im Überblick
Aufgaben und Ziele
Eine zentrale Aufgabe ist die Entwicklung von Konzepten zur semantischen Harmonisierung von Objektbeschreibungen, die in den jeweiligen Fachbereichen der Community in der NFDI4Objects entstehen.
Die Integration, Vergleichbarkeit, Interoperabilität und die Wiederverwendbarkeit von Daten sollen vor allem durch die Verwendung von Ontologien und Metadatenschemata ermöglicht werden. Ziel ist es, eine grundsätzliche Austauschbarkeit und Vergleichbarkeit von Objektdaten nach den FAIR-Prinzipien (Findable, Accessible, Interoperable, Reusable) zu ermöglichen.
Object Core Metadata Profile
Im Rahmen der TWG “Object Core Metadata Profile und Material Heritage Crosswalk Ontology” wird unter Einbeziehung aller Task Areas und der Community u. a. ein Kerndatenschema zur Beschreibung von Objektinformationen für das Konsortium entwickelt. Durch den entstehenden Crosswalk wird ermöglicht, die Daten auch für einen Wissensgraphen aufzubereiten und eine Anschlussfähigkeit an die NFDI sicherzustellen.
Objektbiografie und Objects Ontology
In NFDI4Objects bildet das Konzept der Objektbiografie die zentrale Grundlage, an der sich das Konsortium strukturell orientiert. Mit der Objektbiografie wird nun der Grundstein für ein neues Verständnis bei der Erzeugung und Repräsentation von Sammlungsdaten gelegt. Der Idee der Objektbiografie liegt zugrunde, das Konzept der Biografie auf materielle Kulturgüter zu übertragen. In ihr wird die Geschichte eines Objekts von seiner Herstellung, über seinen Gebrauch, seine Besitzer:innen bis hin zu seinem derzeitigen Verbleib oder gar seiner Zerstörung kompiliert. Zur Vernetzung und Integration der heterogenen und multidisziplinären Daten der NFDI4Objects in einen Wissensgraphen wird die Objektbiografie als Maximaldatenschema anhand des CIDOC CRM (ISO 21127) ins Digitale übersetzt (NFDI4Objects Objects Ontology). So bildet sie das Gerüst, um jegliche Informationen zu einem Objekt zu vernetzen und zu repräsentieren, seien es Grabungsdaten (TA1), Provenienzinformationen (TA2), Laboranalysen (TA3) oder Restaurierungsmaßnahmen (TA4). Entwickelt und erprobt wird das Modell anhand von Use Cases in der virtuellen Forschungs- und Dokumentationsumgebung WissKI.
“Tales from the Grave: Entwicklung eines LIDO-Anwendungsprofils für Archäologie”
Anja Gerber;
Ignite Talks - personal data (horror) stories to make you smile
In der deutschen LIDO AG wird aktuell geprüft, in wieweit sich der Standard auf archäologische Kontexte übertragen lässt und wo Weiterentwicklungsbedarfe bestehen. Ziel ist ebenfalls die Erstellung eines Handbuchs für LIDO für Archäologie.
Die UAG "LIDO für Archäologie" ist das Forum, Use Case-getriebene Diskussionen und Umsetzungsversuche zu bündeln. Diese Arbeitsgruppe wird von Andreas Frech (Universitätsbibliothek der LMU München) und Anja Gerber (Klassik Stiftung Weimar | NFDI4Objects) koordiniert und besteht derzeit aus 10 enthusiastischen Mitgliedern mit archäologischem und interdisziplinären Ansatz.
Aktuelle Themen drehen sich um die datengetriebene Erfassung und Modellierung von Grabstätten, um die Thematik Restaurierung und Konservierung / Denkmalpflege (dieser Bereich wird durch Kristina Fischer und Lasse Mempel-Länger, Task Area 4 in NFDI4Objects, bearbeitet), Bauforschung, die Erfassung von Ausgrabungskontexten und vor allem auch den aktiveren Austausch mit der Fachwissenschaft, um reale Bedarfe zu erfahren.
Dieser Ignite Talk plaudert ein wenig aus dem Grab, denn durch das nahende Halloweenfest sind die ersten Geister schon wieder unterwegs. Anja und Andreas hatten ihre Modellierungen im Sommer 2024 mit verschiedenen Gräbern begonnen, als sie sich zunächst zu einer 2er-Gruppe fanden, das konnte kein Zufall sein!
Ziel ist, einen produktiven Austausch mit der Community zu initiieren sowie Interessierte für unsere UAG und Use Cases für die Objektbiografie in WissKI zu gewinnen.
“Task Area 5 "Storage, Access and Dissemination" stellt ihre Aufgaben, Ziele und Dienste vor”
Task Area 5;
Poster Session
Die Task Area 5 “Storage, Access and Dissemination” stellt umfassende Technologien und Standards für die Langzeitarchivierung und Nachnutzung von Forschungsdaten unter Berücksichtigung der FAIR-Prinzipien bereit.
Mit einem Poster zum „Big Picture“ präsentiert TA5 ihre Aufgaben, Ziele und Dienste im Kontext von NFDI4Objects.
Folgende weitere Poster präsentieren konkrete Beispiele unserer Arbeit:
• IANUS Langzeitarchiv und Forschungsdatenzentrum: Informationen und Angebote zur Langzeitarchivierung und -verfügbarkeit für Forschungsdaten zu materiellen Hinterlassenschaften der Menschheitsgeschichte der NFDI4Objects-Community,
• Die Digitale Dokumentation archäologischer Feldforschung mit iDAI.field,
• Der Knowledge Graph: ein Dienst, der auf einer Graphdatenbanktechnologie basiert und zum Ziel hat, Digitalisate materieller Kulturgüter zu organisieren und zu aggregieren,
• DANTE (DAtendrehscheibe für Normdaten und Terminologien, ein zentraler Dienst zur Erstellung, Pflege und Bereitstellung von Normdatenvokabularen in verschiedenen Systemen, wie z.B. Datenbanken und Portalen), kuniweb (eine Erfassungsdatenbank für Museumsbestände, die die Eingabe, Archivierung, Verwaltung und Recherche von digitalen Bild- und Multimedia-Daten in über 200 verschiedenen Dateiformaten ermöglicht) und Goobi (eine Software, die als reine Web-Applikation auch hochkomplexe Digitalisierungsworkflows unabhängig von Plattformen ermöglicht),
• Das Publikationsangebot Propylaeum E-Publishing des Fachinformationsdienstes Altertumswissenschaften - Propylaeum an der UB Heidelberg als einer seiner Trägerbibliotheken, mit den drei Plattformen Propylaeum-eBOOKS, Propylaeum-eJOURNALS und Propylaeum-DOK für eine nachhaltige Veröffentlichung im Diamond und Green Open Access, sowie Propylaeum@heiDATA, wo Forschungsdaten langfristig und dauerhaft zitierfähig archiviert werden können.
“Task Area 6 - Der Arbeitsbereich Qualifikation stellt sich vor”
Sandra Schröer-Spang;
Poster Session
Task Area 6 besteht aus zwei Arbeitsbereichen, die sehr unterschiedliche Themen abdecken. Im Arbeitsbereich Qualifikation geht es um die Vermittlung von FDM-Kenntnissen in der Community und deren Verankerung in Ausbildung Lehre. Der Arbeitsbereich Harmonisierung & Integration führt die in der Community entwickelten Forschungs- und Metadaten zusammen mit dem Ziel der integrierten digitalen Repräsentation von Objektbiografien. Im Fokus des Plakats stehen die Arbeitsschwerpunkte und Entwicklungen des Arbeitsbereichs Qualifikation. Aufgaben und Ziele des Arbeitsbereichs werden vorgestellt und Möglichkeiten zur Partizipation aufgezeigt.
“Use Cases und Angebote in Text+”
Stefan Buddenbohm, Lukas Weimer;
Poster Session
Welche Angebote stellt das NFDI-Konsortium Text+ für die geistes- und sprachwissenschaftliche Community bereit? Welche Use Cases werden adressiert? Text+ ist Teil der Kooperation Humanities@NFDI und fokussiert auf Nutzende geistes- und sprachwissenschaftlicher Herkunft, hat aber auch einige Angebote für die Community von NFDI4Objects.
“Zentrale FDM-Kursangebote entlang des akademischen Karriereweges an der Universität Tübingen”
Michael Derntl, Jennifer Esslinger;
Poster Session
Ein erfolgreiches Forschungsdatenmanagement (FDM) an einer Universität erfordert neben technischer Infrastruktur auch begleitende Maßnahmen zur Vermittlung von Zielen, Methoden, Werkzeugen und lokalen Strukturen. Dabei ist es wichtig, Angebote für alle Karriereebenen und Fachrichtungen zu entwickeln. Dieses Poster stellt die zentralen FDM-Kursangebote der Universität Tübingen als Anschauungsbeispiel mit Relevanz für NFDI4Objects in Task Area 6, insbesondere für den Arbeitsbereich Qualifikation, sowie für den Community Cluster Qualifikation und OER vor.
Für Postdocs und Professorinnen und Professoren wird ein modularer FDM-Kurs angeboten. Dieser umfasst sieben Module mit jeweils etwa anderthalb Stunden Dauer. Vier Kernmodule werden online angeboten und behandeln grundlegende Themen wie Datenlebenszyklus, Datenspeicherung und -archivierung, rechtliche Aspekte sowie die Datenveröffentlichung. Ergänzend dazu gibt es drei fachspezifische Präsenzmodule für Geistes- und Sozialwissenschaften, Naturwissenschaften und Lebenswissenschaften. Der Kurs wird von zentralen Einrichtungen getragen, darunter die FDM-Referentin, die Universitätsbibliothek, das Rechenzentrum und fachspezifische Core Facilities. Zusätzlich sind Vertreter der Tübinger NFDI-Konsortien, des Technologietransfers und der Graduiertenakademie beteiligt. Bei den ersten beiden Durchläufen haben sich 77 bzw. 102 Personen für den Kurs registriert.
Für Promovierende wurde ein eigener Kurs mit ähnlichen Inhalten konzipiert, die jedoch stärker auf FDM-Grundlagenwissen ausgerichtet sind. Der Kurs besteht aus einem interdisziplinären Hauptmodul und drei fachspezifischen Aufbaumodulen. Besonders ist hier die Nutzung von Lernvideos, die mittels KI aus vorgegebenen Folien und Skript erzeugt werden, was eine laufende Aktualisierung des Materials erleichtert. Das Material ist über die Lernplattform ILIAS verfügbar und wird aktuell von etwa 180 Mitgliedern genutzt. Zusätzlich findet der Kurs einmal jährlich in Präsenz statt. Zur ersten Präsenzrunde 2025 waren 95 Teilnehmende registriert.
Für Studierende aller Fachrichtungen werden in überfachlichen Kursen FDM-relevante Themen vermittelt, darunter FDM-Grundlagen, Data Literacy, Informationskompetenz, Datenbanken, Datenverarbeitung mit Scriptsprachen, Geodaten, digitale Bilder und digitale Ethik. Die Kurse werden in Kooperation zentraler Einrichtungen wie Dr. Eberle Zentrum für digitale Kompetenzen, Digital Humanities Center, Universitätsbibliothek und Transdisciplinary Course Programme angeboten. Viele Materialien sind über ILIAS oder öffentlich über GitHub zugänglich. In den meisten Bachelorstudiengängen ist das Absolvieren überfachlicher Kurse verpflichtend. Wer mindestens 15 Credit Points aus diesem Kursangebot sammelt, kann ein Zertifikat Data Literacy erwerben. Seit der Einführung 2021 wurden etwa zehn Zertifikate pro Semester ausgestellt. Über 500 weitere Studierende haben bereits mindestens sechs Credit Points gesammelt.
Die Angebote decken alle Karrierestufen ab, vom ersten Semester Bachelorstudium bis zur Professur. Studierende erwerben grundlegende Datenkompetenzen, während Promovierende ein vertieftes Verständnis für FDM im Datenlebenszyklus entwickeln. Forschende ab Postdoc-Ebene erhalten zusätzliches Wissen zu FDM-Aspekten, die für Drittmittelanträge und Vernetzung relevant sind. Die wachsende Nachfrage nach FDM-Schulungen und -Beratung, insbesondere ab dieser Karrierestufe, zeigt den steigenden Bedarf dafür. Die frühzeitige Vermittlung von FDM-Kompetenzen im Studium ist ein langfristiger Hebel zur Verbesserung der FDM-Praxis.
Zukünftig sollen die Angebote erweitert werden, etwa bezüglich Forschungssoftwaremanagement und Künstliche Intelligenz. Kurs- und modulspezifische Umfragen ermöglichen anonymes Feedback, das ebenfalls zur Weiterentwicklung genutzt wird. Herausforderungen bleiben die Heterogenität der individuellen Vorkenntnisse und Fachbereiche bezüglich des FDM. Individuelle Beratungsangebote der beteiligten Einrichtungen ergänzen daher die Kursangebote.