Hauptinhalt

DFG Projekte

  • Agile Qualitätssicherung von Metadaten zu kulturellen Objekten im Kontext von Datenintegrationsprozessen

    Die Qualität von Metadaten zu kulturellen Objekten spielt eine entscheidende Rolle für ihre Zugänglichkeit und weitere Nutzung. Dies gilt prinzipiell für jegliche Datenangebote, in besonderer Weise trifft es für Verbundplattformen wie die Deutsche Digitale Bibliothek (DDB) und das Graphikportal ebenso wie für die wachsenden Datenangebote von NFDI-Konsortien wie NFDI4Culture und Text+ zu. Zu integrierende Daten weisen sehr häufig eine andere, dabei nicht selten geringere Qualität als von den Zielsystemen gewünscht auf. Die Daten müssen im Vorfeld der Integration in ein Zielsystem in einem in der Regel aufwändigen Prozess und im Dialog zwischen Datengebenden und Datennehmenden analysiert und gegebenenfalls angepasst werden. Wenn eine Software zur Qualitätssicherung verwendet wird, muss diese von Softwareentwickelnden angepasst werden, sobald Änderungen an den Qualitätsanforderungen vorgenommen werden. Domänenexpert*innen haben bisher kaum eine Chance, eine Qualitätssicherung mit existierenden Werkzeugen eigenständig durchzuführen, geschweige denn bestehende Qualitätsanforderungen anzupassen. Ziel des Projekts ist es, Domänenexpert*innen mit wenig Technologiewissen in die Lage zu versetzen, die fachspezifische Qualitätssicherung von Metadaten selbst zu definieren und durchzuführen. Hierzu sollen ein Prozess und eine Web-basierte Software entwickelt werden, mit der im Vorfeld der eigentlichen Qualitätssicherung die Qualitätsanforderungen von den Domänenexpert*innen semiautomatisch definiert werden können. Im Anschluss wird daraus automatisch der benötigte Input für verschiedene Techniken der Qualitätssicherung, z.B. Schematron, oder bestehende Software und Frameworks, wie z.B. das Metadata Quality Assessment Framework, generiert. Diese bestehenden Komponenten werden in den Qualitätssicherungprozess eingebettet und können ohne die bisher benötigte technische Expertise eingesetzt werden. Die Qualitätsanalyse und damit einhergehende mögliche Qualitätsverbesserungen werden dabei separat definiert und voneinander unabhängig durchführbar sein. Die im Projekt entwickelte Software wird der Kern eines eigenständigen Prozesses zur agilen Qualitätssicherung, der seinerseits in bestehende Datenintegrationsprozesse integriert, aber auch unabhängig davon verwendet werden kann. Der Prozess wird automatisierter und leichter anpassbar als bisherige Qualitätssicherungsmechanismen sein. Als konkrete Anwendungsfälle dienen die Qualitätssicherung von LIDO-Daten für die Integration in die DDB und in das Graphikportal sowie von TEI-Header-Daten im TextGrid Repository. Die Evaluation des Ansatzes ist eingebettet in die NFDI-Konsortien NFDI4Culture und Text+. Da der Ansatz unabhängig von konkreten Datenformaten und Technologien und damit generisch ist, ist eine Übertragbarkeit auf die Qualitätssicherung von Metadaten in weiteren Anwendungsbereichen möglich.

    Beteiligt: Prof. Dr. Gabriele Taentzer
    Kooperationspartner: Péter Király, PhD, Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen (GWDG), Regine Stein, Niedersächsische Staats- und Universitätsbibliothek Göttingen (SUB)

    Gefördert durch: DFG
    Förderung seit: 2023

  • Modulräume für komplexe Nilmannigfaltigkeiten

    Nilmannigfaltigkeiten sind eine wichtige Klasse von Beispielen für exotische komplexe oder hermite'sche Strukturen, weil die Eigenschaften links-invarianter Strukturen oft schon auf dem Niveau der zugehörigen Lie-Algebra bestimmt sind und somit mit Methoden der Lie-Theorie zugänglich sind. Die Klassifikation von solchen Strukturen auf Lie-Algebren hat in der Vergangenheit viel Aufmerksamkeit erfahren, aber die zusätzlichen Schwierigkeiten, die bei der Betrachtung des geometrischen Settings auftreten, wurden meist vernachlässigt.In diesem Projekt möchten wir links-invariante komplexe Strukturen auf bestimmten kompakten Nilmannigfaltigkeiten klassifizieren. Ziel ist es, Fälle zu identifizieren, in denen ein Modulraum als komplexer Raum existiert und dessen Eigenschaften zu studieren.

    Beteiligt: Prof. Dr. Sönke Rollenske
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2022

  • Effiziente Algorithmen für Group Centrality (EAGR)

    Group Centrality-Probleme dienen der Identifikation wichtiger Gruppen von Akteuren in sozialen Netzwerken. Die Berechnung optimaler Lösungen für Group Centrality-Probleme ist algorithmisch schwierig. Daher werden diese Probleme bisher ausschließlich heuristisch gelöst. In EAGR soll untersucht werden, ob es effiziente Algorithmen gibt, die diese Probleme auf typischen Eingabenetzwerken optimal lösen. Dabei sollen sowohl Algorithmen mit besseren theoretischen Worst-Case-Laufzeiten als auch effiziente Implementierungen entwickelt werden.Zur Entwicklung der verbesserten Algorithmen soll analysiert werden, wie die Struktur des Eingabenetzwerks die Schwierigkeit von Group Centrality-Problemen beeinflusst: Gibt es Netzwerkeigenschaften, die sich algorithmisch ausnutzen lassen oder bleiben Group Centrality-Probleme selbst auf sehr eingeschränkten Netzwerken schwer? Auf praktischer Seite soll untersucht werden, ob ein existierendes Software-Framework zur Lösung schwerer Teilgraphprobleme so erweitert werden kann, dass auch die algorithmisch anspruchsvolleren Group Centrality-Probleme effizient gelöst werden können.

    Antragsteller: Prof. Dr. Christian Komusiewicz
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2021

  • Modellgetriebene Optimierung in der Softwaretechnik

    Viele Probleme in der Softwaretechnik können als Optimierungsprobleme betrachtet werden, wie zum Beispiel Softwaremodularisierung, das Testen von Software, und die Planung von neuen Releases. In der suchbasierten Softwaretechnik werden metaheuristische Techniken zur Lösung von Optimierungsproblemen der Softwaretechnik eingesetzt. Einer der weit verbreiteten Ansätze zur iterativen Erforschung eines Suchraumes sind evolutionäre Algorithmen. Die Problemdomänen der Softwaretechnik werden typischerweise mit Vektoren oder Bäumen kodiert, da evolutionäre Operatoren einfach spezifiziert werden können. Wenn die Qualität der Optimierungsergebnisse nicht so hoch, wie erwartet, ist, kann eine Erklärung für diesen Effekt sein, dass domänenspezifisches Wissen bei der explorativen Suche nicht ausreichend erfasst wird. Model-Driven Engineering (MDE) bietet Konzepte, Methoden und Techniken, um domänenspezifische Modelle einheitlich zu verarbeiten. Die Verwendung von MDE in der suchbasierten Softwaretechnik wird modellgetriebene Optimierung (MDO) genannt; sie wurde an bekannten Optimierungsproblemen in der Literatur demonstriert. MDO ist vielversprechend, da domänenspezifisches Wissen systematisch in SBSE eingebracht werden kann. Um die MDO-Vision zu stärken, zielt dieses Projekt darauf ab, MDO zu konsolidieren, d.h. eine wissenschaftliche Grundlage für die bisher erzielten Ergebnisse zu entwickeln und ein tieferes Verständnis zu erlangen, wann und wie MDO zur Lösung von Optimierungsproblemen in der Softwaretechnik eingesetzt werden soll. Diese Projektvision lässt sich in die folgenden Ziele unterteilen: (1) Entwicklung eines formalen Rahmens für MDO, der einen einheitlichen Ansatz für die Spezifikation von Optimierungsproblemen und evolutionären Algorithmen unter Verwendung von domänenspezifischem Wissen definiert. Dieser Rahmen wird zur Klärung von Konzepten und zum Argumentieren über die Qualität evolutionärer Algorithmen verwendet, so dass Entwickler fundierte Entscheidungen treffen können. (2) Durchführung einer empirischen Evaluation von MDO zur Untersuchung seiner praktischen Relevanz. Für diese Evaluation wurden zwei aktuelle Themenbereiche von SBSE identifiziert, das Mutationstesten und die genetische Verbesserung von Programmen. Als Voraussetzung für diese Evaluation wird eine integrierte Werkzeugumgebung für MDO entwickelt, die alle praxisrelevanten Konzepte und Ergebnisse des formalen Rahmens berücksichtigt.

    Antragsteller: Prof. Dr. Gabriele Taentzer
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2021

  • Adaptive Quarklet-Frame-Verfahren hoher Ordnung für elliptische Operatorgleichungen

    Wir befassen uns mit dem Design, der Konvergenzanalyse und effizienten Realisierung einer neuen Klasse adaptiver numerischer Methoden hoher Ordnung für partielle Differentialgleichungen. Im Projekt betrachten wir basis-orientierte Verfahren, die mit einer Wavelet-Version von hp-Finite-Element-Systemen arbeiten, sogenannten Quarklet-Systemen. Diese stückweise polynomiellen, oszillierenden Funktionen haben die spektralen Approximationseigenschaften eines hp-FE-Systems, und sind zudem Frames in einer Reihe von Funktionenräumen, etwa Sobolev-Räumen positiver und negativer Ordnung. Hierdurch werden z.B. anisotrope Tensorprodukt-Approximationstechniken ermöglicht. In diesem Projekt werden wir die Approximations- und Stabilitätseigenschaften von Quarklet-Systemen für das Design adaptiver Diskretisierungsverfahren einsetzen, die in vielen Fällen mit sub-exponentieller Rate konvergieren. Dazu werden wir eine Kombination neuer, mehrskaliger Regularitätsschätzer, zugehöriger Verfeinerungsstrategien sowie adaptive Raumzerlegungen einsetzen. Die resultierenden adaptiven Quarklet-Verfahren sollen bei der numerischen Lösung elliptischer Randwertprobleme sowie parabolischer Evolutionsgleichungen in einer Kleinste-Quadrate-Formulierung eines raum-zeitlichen Systems von Differentialgleichungen erster Ordnung eingesetzt werden. Wir erwarten, dass die Konvergenzanalyse adaptiver Quarklet-Verfahren einige Rückschlüsse auf die Konvergenztheorie adaptiver hp-Finite-Element-Verfahren ermöglicht.

    Antragsteller: Prof. Dr. Stephan Dahlke, Prof. Dr. Thorsten Raasch
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2020

  • Geometrische Realisierung von GKM-Faserbündeln, Nicht-Rigidität von GKM-Mannigfaltigkeiten und Kohomotopie in Dimension 6

    Der berühmte Satz von Delzant besagt, dass die Impulsabbildung eine Bijektion zwischen der Klasse der torischen symplektischen Mannigfaltigkeiten modulo äquivarianten Symplektomorphismen und Delzant-Polytopen modulo Translationen definiert. Dieses Projekt hat als Ziel, eine mögliche Bijektivität einer analogen Zuordnung im Kontext der GKM-Theorie zu untersuchen, welche einer Mannigfaltigkeit mit einer Toruswirkung vom GKM-Typ einen beschrifteten Graphen zuordnet.Das Projekt ist in drei Hauptteile gegliedert. Zunächst werden wir einen Beitrag zum GKM-Realisierungsproblem liefern, d.h. der Frage, ob jeder GKM-Graph durch eine GKM-Mannigfaltigkeit realisierbar ist. Einerseits werden wir verschiedene Klassen von GKM-Faserbündeln geometrisch als äquivariante Faserbündel realisieren und zusätzlich deren invariante (stabil) komplexe, symplektische und Kählerstrukturen untersuchen. Andererseits werden wir die ersten Beispiele von GKM-Graphen konstruieren, die nicht geometrisch realisierbar sind.Zweitens werden wir das Problem der (äquivarianten) kohomologischen Rigidität für GKM-Mannigfaltigkeiten untersuchen. Wir planen, exotische GKM-Mannigfaltigkeiten zu konstruieren - dies sind Beispiele einfach zusammenhängender, ganzzahliger GKM-Mannigfaltigkeiten der Dimension 8 und höher, die belegen, dass der GKM-Graph einer GKM-Mannigfaltigkeit nicht den Homotopietyp bestimmt.Schließlich steht die Existenz gewisser exotischer GKM-Mannigfaltigkeiten mit der Existenz besonderer komplexer Vektorbündel vom Rang 2 über torischen 6-Mannigfaltigkeiten mit Strukturgruppe SU(2) in Beziehung. Zu diesem Zweck berechnen wir die vierte Kohomotopiegruppe einer 6-Mannigfaltigkeit, wodurch die beiden scheinbar unzusammenhängenden Gebiete der GKM-Theorie und der Homotopietheorie in Verbindung gebracht werden.

    Antragsteller: Prof. Dr. Oliver Goertsches, Dr. Panagiotis Konstantis
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2020

  • Kernbasierte Multilevelverfahren für hochdimensionale Approximationsprobleme auf dünnen Gittern - Herleitung, Analyse und Anwendung in der Uncertainty Quantification

    In diesem Projekt sollen verschiedene kernbasierte Multilevelverfahren zur Lösung von hochdimensionalen Approximationsaufgaben entwickelt, analysiert und implementiert werden. Kernbasierte Verfahren haben gegenüber anderen Verfahren den großen Vorteil, dass keine Annahmen an die Struktur der Daten gestellt werden müssen. Sie arbeiten mit beliebig verteilten Daten. Wir werden insbesondere Tensorprodukte von niedrigdimensionalen Punktwolken betrachten. Die Ausdünnung dieser Produkte führt dann zu verallgemeinerten dünnen Gittern. Ferner lassen sich mit ihnen durch geeignete Wahl des Kerns sehr einfach Approximationsräume hoher Ordnung erzeugen. Multilevelverfahren haben den zusätzlichen Vorteil, dass gerade bei großen Datenmengen adaptive Versionen, Versionen zur Datenkompression und effiziente Implementationen möglich sind. Hochdimensionale Approximationsaufgaben treten häufig bei parameterabhängigen partiellen Differentialgleichungen auf, die wiederum oft bei der Modellierung von komplexen Systemen verwendet werden. Die Parameter werden dabei typischerweise als zufällige Größen modelliert. Dies macht die Parameter und damit die Lösungen der partiellen Differentialgleichungen zu Funktionen über einem Wahrscheinlichkeitsraum. Eine Entwicklung in einem Erzeugendensystem mit anschließender endlich dimensionaler Approximation führt schließlich zu einem Modell, bei dem die Parameter aus einem hochdimensionalen Raum kommen. Relevante Kenngrößen des Models lassen sich oft als Funktionale auf dem Raum der parametrisierten Lösungen darstellen. Die approximative Berechnung einer solchen Kenngröße benötigt daher ein hochdimensionales Rekonstruktionsverfahren, dessen Input Paare aus Parametern und numerisch berechneten Lösungen der partiellen Differentialgleichung sind. Die Verfahren sollen für allgemeine Grundräume entwickelt werden mit speziellem Augenmerk auf Tensorprodukten von Intervallen und niedrigdimensionalen Sphären als möglichen Parameterräumen. Zudem soll eine a priori Fehlertheorie für solche hochdimensionale Verfahren hergeleitet werden, die explizit alle relevanten Diskretisierungsparameter enthält. Es soll untersucht werden, inwiefern sich diese Verfahren zur numerischen Bestimmung einer Karhunen-Loeve Entwicklung und bei Fragestellungen aus den Bereichen Design of Experiment bzw. Reduced Order Modeling anwenden lassen.Schließlich sollen die Verfahren auf konkrete Beispiele aus der Uncertainty Quantification angewandt werden.

    Antragsteller: Prof. Dr. Christian Rieger, Prof. Dr. Holger Wendland
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2020

  • Operationale Parametrisierung für Heuristiken (OPERAH)

    Viele praktisch motivierte Berechnungsprobleme etwa im Datenclustern oder in der Transportoptimierung sind NP-schwer. Daher können diese Probleme nach aktuellem Ermessen im Allgemeinen nicht effizient gelöst werden. Ein theoriegetriebener Ansatz um dieser algorithmischen Schwierigkeit zu begegnen ist die parametrisierte Algorithmik. Diese versucht, effiziente Algorithmen dadurch zu erhalten, dass man die Struktur typischer Eingabedaten ausnutzt. Diese Struktur wird durch problemspezifische Parameter beschrieben, die von den Eingabedaten abhängen. Parametrisierte Algorithmen sind schnell, wenn diese Parameter kleine Werte annehmen. Einige parametrisierte Algorithmen können als Basis von State-of-the-Art Algorithmen für NP-schwere Probleme dienen. Dennoch werden sie in der Praxis, in der vor allem Heuristiken Anwendung finden, selten eingesetzt. Zwei wichtige heuristische Verfahren sind lokale Suche und Greedyalgorithmen.Das Projekt "Operationale Parametrisierung für Heuristiken (OPERAH)" soll untersuchen, inwiefern sich parametrisierte Algorithmen gewinnbringend in lokalen Suchverfahren und Greedyheuristiken einsetzen lassen. Im Zentrum der Untersuchungen steht dabei ein sogenannter operationaler Parameter. Dieser wird im Gegensatz zum Standardvorgehen in der parametrisierten Algorithmik nicht durch die Struktur der Eingabe bestimmt wird, sondern vom Anwender selbst gewählt. Der operationale Parameter beschreibt einen Trade-off zwischen höherer Laufzeit und besserer Lösungsgüte: Je höher der Parameterwert ist, desto besser ist die Lösung, aber desto größer wird die Laufzeit. Ein Anwender kann durch die Wahl des Parameterwerts die Laufzeit des Algorithmus bestimmen und erhält eine Lösung mit entsprechender Güte.Durch diese Art der Parametrisierung soll ein Nachteil der parametrisierten Algorithmen, zu große Parameterwerte in realistischen Eingabeinstanzen, abgeschwächt werden. So soll die Arbeit in diesem Projekt die Praxisrelevanz der parametrisierten Algorithmik weiter erhöhen. Im Einzelnen ist das Ziel, für mehrere praxisrelevante Optimierungsprobleme effiziente Algorithmen für die parametrisierte lokale Suche und das sogenannte Turbocharging von Greedyheuristiken zu entwickeln oder zu zeigen, dass solche Algorithmen nach aktuellem Ermessen nicht existieren. Die entwickelten Algorithmen sollen implementiert und experimentell mit State-of-the-Art-Heuristiken verglichen werden. Dabei soll insbesondere auch der oben beschriebene Trade-off zwischen Laufzeit und Lösungsgüte untersucht werden.

    Antragsteller: Prof. Dr. Christian Komusiewicz
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2019

  • Tripelgraphgrammatiken (TGG) 3.0: Ein Framework für zuverlässige, kontinuierliche Modellintegration

    Model-Driven Engineering (MDE) ist ein etablierter Ansatz, um die zunehmende Komplexität von technischen Produkten zu bewältigen. Modelle helfen das Wesentliche von Produktentwicklungen zu erfassen. Da Ingenieursprojekte tendenziell immer komplexer werden und Entwicklungsteams zunehmend in verteilten Umgebungen arbeiten, wird die Unterstützung für kollaborative Modellierungsprozesse auf Netzwerken von Modellen immer wichtiger. Die kollaborative Modellierung in Modellnetzwerken ist noch nicht so ausgereift, dass Inkonsistenzen und Konflikte zwischen Modelländerungen automatisch erkannt und beseitigt werden. Derzeitige MDE-Methoden erlauben entweder nur synchrone Modellierungsaktivitäten, bieten eine "Team-Variante" mit pessimistischem Sperren auf der Ebene der Modellelemente oder lassen nur eingeschränkte Möglichkeiten zur nebenläufigen Bearbeitung von Modellpaaren zu. Bidirektionale Transformationen (BX) versprechen, die Entwicklung von Modellsynchronisationsaufgaben erheblich zu vereinfachen. Während BX-Ansätze für grundlegende Modellsynchronisationsprozesse auf Modellpaaren ausgereift sind, weisen sie in der praktischen Benutzung noch gravierende Mängel auf, da Modellnetzwerke häufig nebenläufig geändert werden und Inkonsistenzen in Modellen nicht immer sofort aufgelöst werden können. Bestehende Ansätze skalieren in der Praxis nicht immer ausreichend oder garantieren die Korrektheit und Vollständigkeit der berechneten Modellsynchronisationen nicht. Um die MDE-Vision für die Modellierung in großen Projekten zu stärken, werden wir ein Framework für zuverlässige und kontinuierliche Modellintegration entwickeln, das eine konzeptionelle und technologische Basis für kollaborative Modellierungsprozesse über mehrere Anwendungsdomänen hinweg bietet. Dieses Framework wird die kontinuierliche Integration von gleichzeitigen Änderungen an Modellen eines Netzwerks unterstützen und dabei temporäre Modellinkonsistenzen tolerieren. Da sich Tripelgraphgrammatiken (TGGs), ein regelbasierter BX-Ansatz, in der Praxis bewährt haben und über eine umfassende formale Grundlage verfügen, werden wir das Framework im Kontext von TGGs entwickeln. Basierend auf verbesserten Modellsynchronisationsmethoden und -werkzeugen für TGGs, die wir in der ersten Förderphase entwickelt haben, wird unser Framework die Entwicklung von Netzwerken kooperierender Modellintegratoren unterstützen. Jeder Modellintegrator hat die Aufgabe, eine zuverlässige, kontinuierliche Modellintegration für ein Modellpaar durchzuführen. Um dieses Ziel zu erreichen, verwendet jeder Modellintegrator einen Monitor-Analyze-Plan-Execute-Zyklus, der durch eine Wissenskomponente (MAPE-K-Zyklus) gesteuert wird; ein Konzept, das von Self-X-Systemen übernommen wurde. Für die Modellintegration im Großen betrachten wir Netzwerke von gleichzeitig aktiven Modellintegratoren. Unser Framework wird an Arcadia evaluiert, einer aktuellen Methodik für modellbasierte Entwicklung in der Industrie.

    Antragsteller: Prof. Dr. Gabriele Taentzer, Prof. Dr. Andreas Schürr
    Gefördert durch: DFG (Sachbeihilfen)
    Förderung seit: 2016