Hauptinhalt

Hochleistungsrechnen

Für Forschung und Wissenschaft steht mit dem Marburger Compute Cluster (MaRC3a) ein leistungsstarkes Compute Cluster zur Verfügung, das stetig an die Bedarfe des modernen High Performance Computing (HPC) angepasst wird.

Nicht nur um den aktuellen Erfordernissen gerecht zu werden, sondern auch um Spitzenforschung im Bereich BigData und KI bestmöglich zu unterstützen, wurde das ca. 10 Jahre alte HPC Cluster MaRC2 im April 2022 durch MaRC3a abgelöst. Neben klassischen HPC-Aufgaben unterstützt MaRC3a durch den Einsatz performanter GPU-Beschleuniger insbesondere auch massiv parallele Anwendungen wie beispielsweise Image Processing, physikalische Simulationen oder neuronale Netzwerke. Nähere Details zum Cluster finden sich unter Wissenswertes (s.u.).

Weitere Ausbaustufen sind in Planung. Mit Fokus auf medizinisch-psychologische Berechnungen wird das Compute Cluster voraussichtlich im August 2022 durch MaRC3b erweitert. Aktuell laufen zudem Vorbereitungen für die dritte Ausbaustufe MaRC3c (MaRCQuant), welche für quantenphysikalische Berechnungen optimiert sein wird.

Ergänzt wird das HPC Cluster durch das hochverfügbare Marburger Storage Cluster (MaSC), das den effizienten Umgang mit großen Datenmengen ermöglicht. Neben der Speicherung zum Zweck der Prozessierung großer Daten steht MaSC auch ausdrücklich als „Hot“ und „Cold“ Storage für Arbeitsgruppen der Philipps-Universität zur Verfügung. So können dort beispielsweise Imaging- und Omicsdaten direkt von den Messgeräten abgelegt werden.

Die beiden Cluster MaRC3a und MaSC stehen für kleinere Projekte grundsätzlich allen Forschenden der Universität zur Verfügung. Die Philipps-Universität verfolgt hierbei einen Konsolidierungsansatz für High Performance Computing und compute-nahen Storage. Durch die gemeinsame Nutzung des HPC und Storage Clusters können die verfügbaren Kapazitäten optimal ausgeschöpft werden. Der Aufwand für Administration und Wartung individueller Systeme für einzelne Arbeitsgruppen entfällt. Über optionale Beteiligungen besteht die Möglichkeit selbst Speicherplatz (MaSC) oder Compute Nodes sowie GPUs (MaRC3) beizusteuern und so die verfügbaren Ressourcen für eigene Projekte gezielt zu erweitern. GPUs können in der Regel zeitnah integriert werden. Anfragen für zusätzliche Compute Nodes werden weiterhin gesammelt, um ggf. einen gemeinschaftlichen Beschaffungsprozess anzustoßen. Wenden Sie sich gerne an unser HPC-Team, vgl. Hilfe und Support (s.u.).

Zielgruppe

Forschende und Wissenschaftler/innen der Universität Marburg

Voraussetzung

  • Zentrales Benutzerkonto (Uni-Account / staff)
  • Von Arbeitsgruppenleiter/in signierte Nutzungserklärung (siehe unter Anmeldung).
  • Inhalt ausklappen Inhalt einklappen AnmeldungAnmeldung

    Der Zugang zum High Performance Computing (HPC) innerhalb der Philipps-Universität Marburg wird zentral durch das Hochschulrechenzentrum (HRZ) vermittelt. Hierfür sind von der Arbeitsgruppen-Leitung zunächst ein oder mehrere sogenannte HPC-Manager/innen zu benennen, die anschließend eigenständig einzelne Uni-Accounts (Staff) aus Ihrer Arbeitsgruppe für die HPC-Nutzung freischalten können. Für beide Vorgänge stehen Webformulare zur Verfügung:

  • Inhalt ausklappen Inhalt einklappen AnleitungenAnleitungen

  • Inhalt ausklappen Inhalt einklappen Hilfe und SupportHilfe und Support

    Das HPC-Team erreichen Sie unter . Bitte geben Sie bei Anfragen ihren Account und einen aussagekräftigen Betreff an.

  • Inhalt ausklappen Inhalt einklappen WissenswertesWissenswertes

    MaRC3a ist im Forschungsbau Synthetische Mikrobiologie (ZSM2) untergebracht. Das Cluster wurde in Kooperation mit verschiedenen Forschergruppen der Philipps-Universität ermöglicht und wird gemeinschaftlich vom Zentrum für Synthetische Mikrobiologie (Synmikro) und dem Hochschulrechenzentrum (HRZ) betrieben. Aktuell besteht MaRC3a u.a. aus 26 Compute Nodes, die zusammen 1.664 Prozessor-Kerne zur Verfügung stellen und über 256 bis 1.024 GB RAM verfügen. Zusätzlich stehen insgesamt 45 Data Center GPUs verschiedener Leistungsklassen (NVIDIA V100S, A40 und A100) für massiv parallele Anwendungen wie KI, Image Processing oder physikalische Simulationen bereit. Als geteilten Storage verfügt MaRC3a über ein paralleles Dateisystem mit 266 TB zur Zwischenspeicherung von Daten und hat zudem direkten Zugriff auf das Storage Cluster MaSC, welches zusätzlich 200 TB für Benutzerdaten und Anwendungen zur Verfügung stellt.