Direkt zum Inhalt
 
 
Die Bannergrafik des HRZ
 
  Startseite  
 
Sie sind hier:» Universität » HRZ » Infrastruktur » Zentrale Server » Linux-Cluster MaRC2
  • Print this page
  • Sitemap
  • create PDF file

Compute-Server: Hessische Hochleistungsrechner und MaRC2 (Marburger RechenCluster 2)

Hochleistungsrechnen in Marburg

Bereits seit seiner Gründung im Jahr 1963 ist das Hochschulrechenzentrum (HRZ) der Philipps-Universität Marburg mit dem Betrieb wissenschaftlicher Rechenanlagen betraut (vgl. Chronik).

Seit Ende 2005 betreibt das HRZ ein Linux-Cluster für das wissenschaftliche Rechnen, das inzwischen durch einen Nachfolger abgelöst wurde:

  • MaRC (Marburger RechenCluster) von Ende 2005 bis Mitte 2012
  • MaRC2 (Marburger RechenCluster 2) seit 2012/2013 (Details unten)

 

Hessisches Kompetenzzentrum für Hochleistungsrechnen, weitere Standorte

Die Philipps-Universität ist Mitglied im Hessischen Kompetenzzentrum für Hochleistungsrechnen (HKHLR).

Die Hochleistungsrechner an den Hessischen Universitäten können prinzipiell von Wissenschaftler/innen anderer Standorte mitgenutzt werden. Der mögliche Umfang der Nutzung orientiert sich dabei an den finanziellen Beiträgen der einzelnen Standorte an den gemeinsam mit dem HMWK finanzierten Hochleistungsrechner-Projekten. Die Koordination der wechselseitigen Nutzung erfolgt seit 2014 durch das HKHLR, das von den Universitäten in Darmstadt, Frankfurt, Gießen, Kassel und Marburg gegründet wurde.

Von besonderem Interesse für Marburger Wissenschaftler/innen ist in diesem Zusammenhang der Lichtenberg-Rechner an der TU Darmstadt (hohe Performance und vielgestaltige Hardware-Architektur) und die Linux-Cluster des Frankfurter CSC (z.Tl. über GPGPUs (General-purpose computing on graphics processing units)). Bitte wenden Sie sich bei Fragen zu den Nutzungsmöglichkeiten der hessischen Hochleistungsrechner per E-Mail an marc@hrz.uni.marburg.de.

 

MaRC2: Marburger RechenCluster 2

Zugang

Wissenschaftler/innen der Philipps-Universität können bevorzugt das Marburger RechenCluster MaRC2 nutzen. Der Zugang erfolgt via SSH-Login. Neben einem Staff- oder Students-Account beim HRZ ist eine von dem/der Arbeitsgruppenleiter/in unterschriebene Nutzungserklärung erforderlich. Die entsprechenden Unterlagen senden wir Ihnen auf Anfrage gern zu. Bitte wenden Sie sich bei Interesse per E-Mail an marc@hrz.uni.marburg.de.

Nutzung

Die Benutzer-Dokumentation zu MaRC2 wird in einem Wiki bereitgestellt (in englischer Sprache). Dort finden Sie auch Workshop-Ankündigungen und Materialien vergangener Workshops.

Betrieb

Hardware

Mit einer (Peak-)Rechenleistung von knapp 56,5 TFlop/s (d.h. maximal 56,5 Billionen arithmetische Operationen pro Sekunde) liegt die Leistungsfähigkeit von MaRC2 um ein bis zwei Größenordnungen unter der Kapazität, wie sie derzeit in großen überregionalen Rechenzentren (RZ Stuttgart, FZ Jülich, LRZ München, ...) oder beim Lichtenberg-Rechner in Darmstadt bereitgestellt wird. Andererseits kann auf einem lokalen Cluster viel flexibler als in einem großen Zentrum auf die spezifischen Anforderungen der einzelnen Benutzer eingegangen werden. MaRC2 steht daher im Spektrum der Compute-Server zwischen dem Desktop-PC und einem Höchstleistungsrechner.

Bereits im Sommer 2010 haben Prof. Eckhardt und mehrere Arbeitsgruppen aus verschiedenen Fachbereichen der Universität zusammen mit dem HRZ einen DFG-Antrag für Großgeräte zur Beschaffung eines gemeinsamen Linux-Clusters gestellt. Nach der Bewilligung des Antrags Anfang 2011 und der EU-weiten Ausschreibung im Sommer 2011 erfolgte die Installation von MaRC2 Anfang 2012. Aufgrund zahlreicher technischer Schwierigkeiten konnte die Abnahme des Clusters (und damit die Aufname des Regelbetriebs) erst im März 2013 vollzogen werden. Im Herbst 2014 erfolgte als Ausgleichsleistung eine Erweiterung des Clusters von bislang 88 auf nun 96 Compute Nodes.

Der Compute Cluster MaRC2 ist in einem Serverraum des HRZ aufgestellt und wird vom HRZ betrieben.

MaRC2 (Foto)
Vorderansicht der sieben Racks, die den HPC-Cluster MaRC2 beherbergen

 

 

Die folgende Skizze zeigt den schematischen Aufbau des Linux-Clusters MaRC2:

MaRC2 (PNG-Version)
Schematischer Aufbau des HPC-Clusters MaRC2

 

Insgesamt verfügt MaRC2 über ca. 24 TB RAM und 192 TB Festplattenspeicher in den Computes Nodes. Über einen clusterweiten Fileservice werden außerdem 2 x 33TB Plattenplatz bereitgestellt.

MaRC2 wurde im Rahmen eines DFN Großgeräteantrags zu gleichen Teilen aus Bundes- und Landesmitteln beschafft. Die Landesmittel seinerseits wurden zu gleichen Teilen durch direkte Zuschüsse des Landes Hessen und durch die Universität aufgebracht, wobei Haushaltsmittel des HRZ und weitere Forschungsgelder eingeflossen sind. Die gemeinsame Finanzierung des Linux-Clusters ermöglichte eine Investitionshöhe, die keine der beteiligten Arbeitsgruppen allein hätte aufbringen können (der Finanzierungsrahmen betrug insgesamt ca. 900 000 EUR). Durch die gemeinsame Nutzung steht die gesamte Leistungsfähigkeit des Clusters zeitweise allen beteiligten Arbeitsgruppen zur Verfügung. Lastspitzen bei den Anforderungen an die Rechenzeit werden zwischen den Arbeitsgruppen im zeitlichen Mittel ausgeglichen.

High Performance Computing (HPC) gehört vor allem in den Naturwissenschaften und der angewandten Mathematik immer mehr zum alltäglichen Handwerkszeug für die wissenschaftliche Forschung. Die Leistungsfähigkeit moderner Standard-Hardware ermöglicht den Aufbau von Verbund-Systemen ("Clustern") zu einem günstigen Preis-/Leistungsverhältnis. Derartige Cluster-Systeme dominieren inzwischen die Top500 Liste der weltweit schnellsten Rechner. Sie werden fast ausschließlich unter dem freien, quelloffenen Betriebssystem Linux betrieben.

Software

Als Betriebssystem kommt auf den Headnodes Red Hat Enterprise Linux zum Einsatz, die Compute Nodes werden mit CentOS betrieben. Auszuführende Programme müssen als Jobs an das Batchsystem (Sun Grid Engine 6.2u5) übergeben werden. Verschiedene Software und Compiler werden über Environment Modules zur Verfügung gestellt, z.B. gcc-, Intel- und PGI-Compiler für Fortran/C/C++ sowie Open MPI oder Parastation MPI.

Kontakt

Bei Fragen wenden Sie sich bitte per E-Mail an marc@hrz.uni.marburg.de.

Zuletzt aktualisiert: 07.11.2014 · Thomas Gebhardt

 
 
 
Hochschulrechenzentrum

Hochschulrechenzentrum, Hans-Meerwein-Straße, D-35032 Marburg
Tel. +49 6421 28-28282, Fax +49 6421 28-26994, E-Mail: helpdesk@hrz.uni-marburg.de

URL dieser Seite: http://www.uni-marburg.de/hrz/infrastruktur/zserv/cluster

Impressum | Datenschutz