Hauptinhalt

HeFDI Forschungsdatentag am 18. Juni 2021

Eine Biene bestäubt eine Löwenzahnblüte
Foto: Colourbox.de/Andrei Shupilo

Digital gestützte Forschung und Forschungsdatenmanagement - Herausforderungen und Chancen

Ziele
Programm
Weitere Informationen zu Sessions, Lightning Talks und Live-Beratung

Ziele

Der HeFDI-Forschungsdatentag zielt darauf ab, dass Forschende, Lehrende sowie alle weiteren Interessierten in Sessions Themen und Angebote zu Datenmanagement kennenlernen und erproben können. Zudem stellen verschiedene Infrastruktur-Einrichtungen und Zentren aus Hessen ihre Dienste und Angebote in kurzen Lightning-Talks vor. Parallel bieten wir Interessierten eine Live-Beratung zum Datenmanagement in konkreten Projekten.

Programm

Uhrzeit Programmpunkt  Vortragende
8h30-9h00 Digitaler Begrüßungskaffee und technical hiccups
9h00-9h15 Begrüßung, Programmvorstellung, Übergang in die Sessions, Lightning Talks und Live-Beratung Ortrun Brand, HeFDI
9h15-10h45

Parallele Veranstaltungen I

Sessions 1-5
Session 1: Einführung ins Forschungsdatenmanagement (Beschreibung) Birte Cordes, Philipps-Universität Marburg
Session 2: Programmieren lernen mit Python und Jupyter Notebooks (Beschreibung) Andreas Schieberle, Hochschule Darmstadt
Session 3: Versionskontrolle in Forschungsprojekten (Beschreibung) Tamara Cook, Philipps-Universität Marburg
Session 4: Datenaufbereitung mit OpenRefine / Data wrangling with OpenRefine (Beschreibung) Andre Pfeifer, Technische Universität Darmstadt; Jens Freund, Technische Universität Darmstadt
Session 5: Datenschutzkonzepte für Forschungsprojekte (Beschreibung) Nina Raschke, Philipps-Universität Marburg
Live-Beratung zum Datenmanagement in Ihrem Projekt (Beschreibung) Esther Krähwinkel, Philipps-Universität Marburg; Nina Dworschak, Uni Frankfurt
 
Lightning Talks
  • 9h15 Power Point ist tot! Versionierung von Vorträgen inkl. Datensätzen über GitLab (Christian Krippes, Justus-Liebig-Universität Gießen, Beschreibung)
  • 9h45 Das Marburg Center for Digital Culture and Infrastructure (MCDCI) (Stefan Schulte, UMR, Beschreibung)
  • 10h15 Die HeFDI-Repositorien am Beispiel des TUdatalib (Gerald Jagusch, Technische Universität Darmstadt, Beschreibung)
10h45-11h15 Kaffeepause Gelegenheit zu Pausengesprächen und Interaktion auf wonder.me
11h15-12h45

Parallele Veranstaltungen II

Sessions 6-10
Session 6: Workshop zum Thema Datenmanagementpläne (Beschreibung) Judith Dähne, Hochschule Rhein-Main; Patrick Langner, Hochschule Fulda
Session 7: XML-Workshop (Beschreibung) Andre Pietsch, Justus-Liebig-Universität Gießen
Session 8: Deep Learning (Beschreibung) Marcel Giar, Technische Universität Darmstadt; Tim Jammer, Justus-Liebig-Universität Gießen
Session 9: Citizen Science: Bürger*innen machen Wissenschaft Andrea Rapp, Technische Universität Darmstadt; Eva L. Wyss, Universität Koblenz-Landau (Campus Koblenz)
Session 10: Softwaregestützte quantitative Sozialforschung (Beschreibung) Robert Lipp, Frankfurt University of Applied Sciences
Live-Beratung zum Datenmanagement in Ihrem Projekt (Beschreibung)
Esther Krähwinkel, Philipps-Universität Marburg; Nina Dworschak, Uni Frankfurt
 
 
Lightning Talks 
  • 11h15 Datenqualitätsmanagement mit LIDO (Christian Bracht, Deutsches Dokumentationszentrum für Kunstgeschichte - Bildarchiv Foto Marburg, Beschreibung)
  • 11h30 Forschungsdaten mit GeoEngine (Bernhard Seeger, Philipps-Universität Marburg)
  • 11h45 Digitalisierung von Sammlungen: das Corvey-Projekt an der Philipps-Universität Marburg (Alexander Vielhauer, Philipps-Universität Marburg; Alexander Maul, Philipps-Universität Marburg, Beschreibung)
  • 12h00 Zentrale HPC-Ressourcen an der Uni Marburg (Thomas Gebhardt, Philipps-Universität Marburg, Beschreibung)
12h45h-14h Lunch - Socializing, Diskussion, Interaktion Gelegenheit zur Fortsetzung von Diskussion und zum Vertiefen von Fragen auf wonder.me

Weitere Informationen zu Sessions, Lightning Talks und Live-Beratung

Session 1: Einführung ins Forschungsdatenmanagement

Diese Einführung bietet einen Überblick über alle wichtigen Themenbereiche des Forschungsdatenmanagements: u. a. Datenlebenszyklus, Datenmanagementplan, Vorgaben von Drittmittelgebern und Hochschulen, Organisation und Dokumentation, Datenpublikation und rechtliche Fragen.

Session 2: Programmieren lernen mit Python und Jupyter Notebooks

Ein Einstieg für absolute Anfänger*innen. Beim Umgang mit Forschungsdaten müssen häufig eigene Lösungen für die Aufbereitung, Analyse und strukturierte Speicherung von Daten entwickelt werden. In dieser Session erhalten Sie einen ersten Überblick über die Programmiersprache Python und die Möglichkeiten der interaktiven Datenauswertung mit Jupyter Notebooks als Alternative zur klassischen Tabellenkalkulation.

Session 3: Versionskontrolle in Forschungsprojekten

Versionskontrolle als Methode, speziell das Tool Git, hat sich in der professionellen Softwareentwicklung längst zu einem selbstverständlichen Qualitätsstandard etabliert. Außerdem ist Git auch außerhalb reiner Softwareprojekte sinnvoll einsetzbar. Je mehr Software in der Forschung zum Einsatz kommt, desto mehr liegt es auch in unserer Verantwortung, die vorhandenen Hilfsmittel und Methoden zur Qualitätssicherung ebenfalls zu nutzen. Ich möchte Sie in diesem Rahmen in den Umgang mit Git einführen und veranschaulichen, wie Versionskontrolle in längerfristigen Projekten die Nachvollziehbarkeit der Projekthistorie, das Zusammenarbeiten und eine FAIRe Datenhaltung unterstützen kann.

Session 4: Datenaufbereitung mit OpenRefine

Data wrangling with OpenRefine. In unserem Workshop „Datenaufbereitung mit OpenRefine“ lernen Sie die Grundlagen der Aufbereitung und Transformation tabellarischer Daten mit der Open-Source-Software OpenRefine kennen. OpenRefine stellt unter einer grafischen Benutzeroberfläche, die äußerlich einer Tabellenkalkulationssoftware ähnelt, Funktionen bereit, mit denen Inkonsistenzen in großen Datenmengen identifiziert und korrigiert werden können. So ist es beispielsweise möglich, leicht unterschiedliche Schreibweisen eines Namens in verschiedenen Einträgen (z. B. TU Darmstadt und TU_Darmstadt) per Clustering zusammenzufassen und anschließend einheitlich zu bezeichnen. Eine solche Datenaufbereitung erleichtert eine spätere Analyse der Daten oft erheblich.

Anhand eines Beispieldatensatzes werden die Bedienung und wichtige Funktionen der Software vorgestellt und können praktisch am eigenen PC nachvollzogen werden. Dazu gehören unter anderem:

das Anlegen eines Projekts und der Datenimport,
die Nutzung von Facetten-, Filter- und Clusterfunktionen,
die Transformation von Daten (z. B. das Aufspalten von Zelleninhalten) sowie
der Datenexport.

Hinweise zur Installation der Software auf dem eigenen Rechner und zum Beispieldatensatz werden im Vorfeld des Workshops bekanntgegeben. Für die Teilnahme am Workshop werden keine speziellen Vorkenntnisse vorausgesetzt.

Session 5: Datenschutzkonzepte für Forschungsprojekte

Auf dem Weg zu Ihrem Forschungsziel müssen Sie viele Hürden nehmen, eine davon ist der Datenschutz. Eine strukturierte Prüfung der Einhaltung datenschutzrechtlicher Vorgaben kann anhand eines Datenschutzkonzeptes vorgenommen werden und Ihnen kostbare Zeit ersparen. Die Erstellung eines Datenschutzkonzeptes führt Forschende durch eine datenschutzrechtliche Prüfung und dient deren Dokumentation, zum Beispiel gegenüber Betroffenen, Kooperationspartnern oder Aufsichtsbehörden. Der Vortrag stellt die Zwecke und notwendigen Inhalte eines solchen Konzeptes vor. Es wird erläutert, in welchen Fällen sich ein Konzept lohnt oder sogar gesetzlich vorgeschrieben ist und geht auf forschungsspezifische Fragestellungen ein.

Session 6: Workshop zum Thema Datenmanagementpläne

Gut geplant ist halb gewonnen! Ob zur Erfüllung von Vorgaben der Forschungsförderer oder zur besseren Strukturierung der eigenen Arbeitsweise. Ein gut ausgearbeiteter Datenmanagementplan ist integraler Bestandteil jedes Forschungsvorhabens und hilft, sich frühzeitig Gedanken um Datenarten, Datenverarbeitung, Speicherung, Datenpublikation, Rechtsfragen und weitere zentrale Fragen der Forschungsorganisation zu machen. In dieser Session erhalten Sie einen Einblick, was genau ein Datenmanagementplan ist, welche Elemente er enthalten sollte und welche Tools und Checklisten als Hilfestellungen zur Verfügung stehen. Kurze Übungen, praktische Beispiele und digitale Tools lockern den Vortrag auf und führen Schritt für Schritt an das Thema heran.

Session 7: XML-Workshop

Praktische Einführung in XML und Metadatenschemata am Beispiel von TEI. Im Bereich des Forschungsdatenmanagements hört man immer öfter von XML und disziplinübergreifenden und disziplinspezifischen Metadatenschemata. Leider ist die Anwendung von XML und die Benutzung solcher Metadatenschemata nicht trivial.

Dieser Workshop richtet sich an Personen, die mit dieser Thematik bisher gar nichts oder nur wenig zu tun gehabt haben, und soll einen kurzen praktisch orientierten Einblick in XML und liefern.

Folgende Fragen werden in diesem Workshop behandelt:
1) Was ist XML?
2) Wann und warum sollte man XML verwenden?
3) Wie verwende ich XML?
4) Was ist ein Metadatenschema?
5) Wie entsteht ein Metadatenschema?
6) Wie wende ich ein Metadatenschema an?

Session 8: Deep Learning

Eine Einführung. Deep Learning ist eine Methode aus dem Bereich des Machine Learnings. Mit Deep Learning-Anwendungen lassen sich Daten umfassend analysieren, für welche formal begründete Modelle nur begrenzt einsetzbar sind. Dies ist häufig bei Daten im Zusammenhang mit menschlichem Verhalten der Fall. Weitere wichtige Anwendungsgebiete sind Medizin (z.B. Tumorerkennung), Linguistik (z.B. Spracherkennung) oder Soziologie (z.B. gesellschaftliche Dynamiken und Prozesse). Neben einer kurzen Einführung in das Themengebiet bietet diese Session einen ersten Überblick darüber, wie Deep Learning-Systeme aufgebaut sind und mit welchen Herausforderungen das Training neuronaler Netze verbunden ist. Dies wird anhand eines konkreten Beispiels für Bilderkennung demonstriert.

Session 10: Softwaregestützte quantitative Sozialforschung

Praxisinput und Erfahrungsaustausch. In der quantitativen Sozialforschung steht eine stetig wachsende Zahl von Softwaretools zur Verfügung. Diese können die Erhebung und Verarbeitung von Umfragedaten erleichtern sowie deren Nachnutzbarkeit verbessern.
Im Rahmen dieses diskussionsorientierten Workshops wollen wir gemeinsam erörtern, welche Tools Sie in Ihrer Forschung nutzen, welche Erfahrungen Sie mit ihnen gemacht haben und welche Herausforderungen Sie diesbezüglich meistern mussten. Die Themenbereiche gliedern sich dabei in (1) Datenerhebung, (2) Datenaufbereitung und (3) Datenveröffentlichung. Als Einstieg dienen Erfahrungen aus der bundesweiten Panelstudie GUS, in der zwischen 2014 und 2020 jährlich rund 10.000 Schülerinnen und Schüler mithilfe eines standardisierten Tablet-Fragebogens befragt wurden. 


Lightning Talk: Power Point ist tot! 

Oder: Versionierung von Vorträgen inkl. Datensätzen über GitLab. Mit Hilfe von GitLab CI/CD sowie Werkzeugen wie Pandoc lassen sich versionierbare Präsentation erstellen, die außerdem zur Kollaboration einladen und leicht aktualisierbar sind.

Lightning Talk: Das Marburg Center for Digital Culture and Infrastructure (MCDCI)

Der Beitrag stellt das interdisziplinäre Marburg Center for Digital Culture and Infrastructure (MCDCI) vor, das als wissenschaftliche Einrichtung von der Philipps-Universität Marburg gemeinsam mit weiteren Partnereinrichtungen betrieben wird. Das MCDCI widmet sich der Anwendung digitaler Methoden in den Geistes- und Sozialwissenschaften und erforscht die Auswirkungen der Digitalisierung auf Gesellschaft und Kultur. Ein Teil der Präsentation wird sich dem neuen Masterstudiengang "Cultural Data Studies" widmen, der vom MCDCI angeboten wird.

Lightning Talk: Die HeFDI-Repositorien am Beispiel des TUdatalib

Vorstellung von TUdatalib, dem institutionellen Forschungsdatenrepositorium der TU Darmstadt und des Betriebsmodells für weitere Hochschulen innerhalb von HeFDI.

Lightning Talk: Datenqualitätsmanagement mit LIDO 

Vorgestellt wird der Einsatz des Daten-Harvestingformats LIDO für Kulturdaten, am praktischen Beispiel kunsthistorisch relevanter Werke der Druckgraphik und Zeichnung.

Lightning Talk: Digitalisierung von Sammlungen: das Corvey-Projekt an der Philipps-Universität Marburg

Im Fokus des Projekts „Mittelalterliche Buchhandschriften der Klosterbibliothek Corvey digital“ stehen die mehr als 150 erhaltenen Buchhandschriften und Fragmente Corveyer Provenienz, die aktuell auf 51 Institutionen weltweit verteilt sind. Ziel ist es, die in Marburg und Paderborn befindlichen Handschriften Corveyer Provenienz an der Universitätsbibliothek Marburg nach DFG-Vorgaben zu digitalisieren. Außerdem wird die Digitalisierung von Streubeständen an deutschen Einrichtungen vor Ort in Auftrag gegeben. Schließlich sollen alle Digitalisate mit den vorhandenen Beschreibungsdaten in einem Web-Portal erfasst und somit wieder im Zusammenhang präsentiert werden. Dabei wird auch der übrige weltweite Streubesitz an Handschriften soweit wie möglich über das Portal zugänglich gemacht werden.

Lightning Talk: Zentrale HPC-Ressourcen an der Uni Marburg

MaRC2, MaRC3a, MaSC und Ma*

* Wann lohnt sich der Einsatz eines High Performance Computing (HPC) Clusters?
* Welche zentralen HPC Cluster gibt es an der Universität Marburg?
* Wie bekomme ich Zugang zu HPC Ressourcen?
Der Lightning Talk richtet sich an Forschende mit erhöhtem Bedarf an Compute-Ressourcen.

Live-Beratungen zum Datenmanagement in Ihrem Projekt I und II

Sie planen gerade ein Forschungsprojekt und fragen sich, wie Sie Ihr Datenmanagement umsetzen? Sie wünschen sich Beratung zu konkreten Fragen? Sie wollen gerne wissen wie die aktuelle Entwicklung auf dem Feld des Forschungsdatenmanagements ist? Dann besuchen Sie uns. Wir erörtern gerne Ihre Fragen gemeinsam mit Ihnen in unserer Live-Beratung.