High-Performance Computing mit Red Hat

Unternehmen setzen zunehmend auf High-Performance Computing (HPC), um ihre drängendsten Probleme durch datengestützte Entscheidungen zu lösen. Der Wunsch, künstliche Intelligenz (KI) in großem Umfang einzusetzen, stellt dabei neue Anforderungen an bestehende HPC-Architekturen. Aufgrund dieser neuen Workloads müssen die Funktionen von HPC ausgeweitet und von Bare Metal-Deployments auf Hybrid Cloud-Anwendungsplattformenverlagert werden.

Daher können diese HPC-Lösungen jetzt lokal, am Edge und sogar in der Cloud bereitgestellt werden.

Darstellung mehrerer Plattformen
Jump to section

Was ist High-Performance Computing?

High-Performance Computing (HPC) bezieht sich auf die Verarbeitung von Daten mit komplexen Berechnungen mit einer hohen Geschwindigkeit auf mehreren Servern gleichzeitig. Diese Servergruppen werden auch als Cluster bezeichnet und bestehen aus Hunderten oder sogar Tausenden von Computing-Servern, die über ein Netzwerk verbunden sind.

High-Performance Computing (HPC) mit Red Hat

High-Performance Computing – Use Cases

Die Use Cases für High-Performance Computing haben sich in allen Branchen ausgeweitet und umfassen jetzt zudem den Bereich KI/ML. Und dennoch hat sich an der HPC-Architektur bis vor Kurzem nur wenig geändert. Durch die Orchestrierung von Containern über mehrere Hybrid Cloud-Umgebungen lassen sich diese erweiterten Use Cases jetzt mithilfe von neuen Architekturen angehen. Der Ansatz von Red Hat zu High-Performance Computing konzentriert sich auf drei Kategorien: 

Laut der TOP500-Liste der leistungsfähigsten Computersysteme weltweit ist Linux® das vorherrschende Betriebssystem für High-Performance Computing. Auf allen diesen TOP500-Supercomputern läuft Linux – und von den Supercomputern an der Spitze der Liste führen viele zudem Red Hat® Enterprise Linux aus.

Red Hat Enterprise Linux ist ein beliebtes Betriebssystem für alle HPC-Standorte, auch bei einigen der besten Supercomputer der Welt.

Dr. Earl Joseph
Chief Executive Officer, Hyperion

Forscher in den verschiedensten Bereichen, darunter Grundlagenforschung, Wetter- und Klimaforschung sowie wehrtechnische Forschung, verwenden High-Performance Computing, um große Mengen an Daten auszuwerten und daraus Rückschlüsse zu ziehen. HPC-Cluster helfen bei der Modellierung und Simulation ebenso wie bei erweiterten Analysen.


Bisher war High-Performance Computing vor allem in staatlichen und akademischen Forschungseinrichtungen zu finden, weitet sich aber derzeit immer weiter aus und verlagert sich dabei weg von herkömmlichen Architekturen mit Rechenzentren hin zur Hybrid Cloud.

High-Performance Computing bietet Vorteile für Nutzerinnen und Nutzer im industriellen und gewerblichen Bereich, und zwar in vielen Branchen, darunter:

Unternehmen unterstützen mit HPC-Clustern den technischen Rechenaufwand beim Design und der prädiktiven Modellierung in der Wissenschaft und im Finanzwesen. 

Das Portfolio von Red Hat für High-Performance Computing

Mit dem Portfolio von Red Hat für High-Performance Computing erhalten Sie die Vertrautheit und Leistungsfähigkeit unserer Open Source-Plattformen für Unternehmen für Ihre High-Performance Computing-Workloads.

Ein Betriebssystem, das eine konsistente, flexible Basis bietet, auf der leistungsintensive Workloads ausgeführt werden können. Red Hat Enterprise Linux läuft auf den drei besten Supercomputern der Welt.

Eine moderne Anwendungsplattform, die für ein vertrauenswürdiges, umfassendes und konsistentes IT-Erlebnis sorgt und mit sicherheitsorientierten, skalierbaren Funktionen für die Entwicklung und Bereitstellung von Anwendungen Innovationen in Unternehmen und IT fördert.

Eine Lösung für das Infrastrukturmanagement zur effizienten Ausführung von Red Hat Enterprise Linux.

Eine offene, stark skalierbare, vereinfachte Storage-Lösung für moderne Daten-Pipelines.

Einstieg

Entdecken Sie die Möglichkeiten von HPC und Red Hat