Red Hat OpenShift AI

Red Hat® OpenShift AI® ist eine Plattform, mit der Sie den Lifecycle prädiktiver und generativer KI-Modelle (gen KI) in großem Umfang in Hybrid Cloud-Umgebungen verwalten können. 

Darstellung der Benutzeroberfläche von RHELAI

Was ist Red Hat OpenShift AI?

OpenShift AI basiert auf Open Source-Technologien und bietet zuverlässige, operativ konsistente Funktionen, mit denen Teams experimentieren, Modelle bereitstellen und innovative Anwendungen liefern können.

Mit OpenShift AI können Sie Daten erfassen und vorbereiten, Modelltraining und Fine Tuning durchführen, Modelle bereitstellen und überwachen sowie auf Hardwarebeschleuniger zugreifen. Durch das offene Partnernetzwerk für Hardware und Software verfügt OpenShift AI über die Flexibilität, die Sie für Ihre speziellen Use Cases benötigen.

Sehen Sie sich eine Demo zu Red Hat OpenShift AI und einigen der neuesten Funktionen an. Dauer des Videos: 5:59

Grafik zu Red Hat AI

KI-gestützte Anwendungen schneller produzieren

Hier sind die bewährten Features von Red Hat OpenShift AI und Red Hat OpenShift in einer unternehmensgerechten KI-Anwendungsplattform vereint, die Ihre Teams zusammenbringt. Data Scientists, Engineers und Anwendungsentwicklungsteams können so in einem Medium zusammenarbeiten, das Konsistenz, Sicherheit und Skalierbarkeit fördert.

Das neuste Release von OpenShift AI umfasst eine kuratierte Sammlung an optimierten, produktionsbereiten Drittanbietermodellen, die für Red Hat OpenShift AI validiert wurden. Dieser Katalog mit Modellen von Drittanbietern bietet Ihrem Team mehr Kontrolle über die Zugänglichkeit und Transparenz von Modellen, was die Einhaltung von Richtlinien und Sicherheitsanforderungen vereinfacht. 

Darüber hinaus unterstützt OpenShift AI Sie mithilfe eines optimiertem vLLM-Frameworks dabei, die Kosten von Inferenzen mit verteilter Bereitstellung besser zu managen. Um die operative Komplexität noch weiter zu reduzieren, bietet die Lösung fortschrittliche Tools zum Automatisieren von Deployments und zum Self Service-Zugriff auf Modelle, Tools und Ressourcen.

Weniger Zeitaufwand für das KI-Infrastrukturmanagement

Sichern Sie sich On-Demand-Zugriff auf leistungsstarke Modelle, die Self Service, Skalierung und Deployments erleichtern. Entwicklungsteams können sich der Komplexität entledigen und Kosten optimieren, ohne Abstriche bei der Kontrolle machen zu müssen.

Features wie Models as a Service (MaaS) sind aktuell als Entwicklungsvorschau verfügbar. Der Ansatz mit Fokus auf KI-Zugriff in Form von API-Endpunkten ermöglicht eine private und schnellere KI in großem Umfang. 

Getestete und unterstützte KI/ML-Tools

Red Hat testet, integriert und unterstützt KI/ML-Tools und -Modellbereitstellungen, damit Sie sich um Wichtigeres kümmern können. OpenShift AI profitiert von mehreren Jahren Erfahrung mit dem Community-Projekt „Open Data Hub“ und mit Open Source-Projekten wie Kubeflow

Dank unserer Erfahrung und Open Source-Expertise können wir eine gen KI-bereite Basis bereitstellen, die unseren Kunden mehr Auswahl und Zuversicht bei ihren gen KI-Strategien gibt. 

Flexibilität in der gesamten Hybrid Cloud

Red Hat OpenShift AI ist als selbst gemanagte Software und als vollständig gemanagter Cloud Service zusätzlich zu OpenShift verfügbar. Bei dieser sicheren und flexiblen Plattform können Sie selbst entscheiden, wo Sie Ihre Modelle entwickeln und bereitstellen möchten: On-Premise, in der Public Cloud oder sogar am Edge.

Einsatz von Best Practices

Red Hat Services bietet Fachwissen, Training und Support, damit Sie die Herausforderungen von KI meistern können – unabhängig davon, an welchem Punkt der KI-Einführung Ihr Unternehmen sich befindet. 

Sie wollen Prototypen für Ihre KI-Lösungen erstellen, das Deployment Ihrer KI-Plattform optimieren oder Ihre MLOps-Strategien voranbringen? Red Hat Consulting bietet Ihnen Support und Mentoring für diese Initiativen und mehr.

KI-Schnellstarts

Es gibt eine Vielzahl innovativer KI-Use Cases in unserer Community. Diese einfachen, gezielten Beispiele wurden für eine schnelle und unkomplizierte Bereitstellung auf der Plattform von Red Hat AI entwickelt.

Well-lit Paths für Entwicklungsteams mit llm-d

Red Hat OpenShift AI umfasst llm-d, ein Open Source Framework, mit dem Sie die Herausforderungen verteilter KI-Inferenz in großem Umfang lösen können.

Das Skalieren von Modellen für eine verteilte Flotte von GPUs bietet ein neues Maß an Kontrolle und Beobachtbarkeit. Dabei können Unternehmen komplexe LLMs in großem Umfang optimieren, indem sie die Inferenz-Pipeline in modulare, intelligente Services zerteilen. 

MCP-Server für Red Hat OpenShift AI

In unserer kuratierten Sammlung finden Sie verschiedenste MCP-Server unsere Technologiepartner, die sich mit Red Hat OpenShift AI integrieren lassen. 

MCP (Model Context Protocol) ist ein Open Source-Protokoll, das eine 2-Wege-Verbindung und die standardisierte Kommunikation zwischen KI-Anwendungen und externen Services ermöglicht.

Jetzt können Sie diese MCP-Server nutzen, um Unternehmenstools und -ressourcen in Ihre KI-Anwendungen und agentischen Workflows zu integrieren. 

Optimierung mit vLLM für schnelle und kosteneffiziente Inferenz

Red Hat AI Inference Server ist Teil der Red Hat AI Plattform. Die Lösung ist in Red Hat Enterprise Linux® AI und in Red Hat OpenShift® AI enthalten, kann aber auch als Standalone-Produkt gekauft werden.

Individuelle KI-Lösungen für Ihre Anforderungen

Generative KI

Generative KI

Neue Inhalte wie Text und Softwarecode produzieren 

Mit Red Hat AI können Sie die generativen KI-Modelle Ihrer Wahl schneller, mit weniger Ressourcen und geringeren Inferenzkosten ausführen. 

Prädiktive KI

Prädiktive KI

Muster erkennen und zukünftige Ergebnisse prognostizieren 

Mit Red Hat AI können Unternehmen prädiktive Modelle entwickeln, trainieren, bereitstellen und überwachen und dabei die Konsistenz in der Hybrid Cloud wahren.

Operationalisierte KI

Operationalisierte KI

Systeme entwickeln, die die Wartung und Bereitstellung von KI in großem Umfang unterstützen 

Mit Red Hat AI können Sie den Lifecycle von KI-fähigen Anwendungen managen und überwachen, gleichzeitig Ressourcen einsparen und die Compliance mit Datenschutzbestimmungen sicherstellen. 

Agentische KI

Agentische KI

Entwickeln Sie Workflows, die komplexe Aufgaben unter eingeschränkter Überwachung ausführen. 

Red Hat AI bietet einen flexiblen Ansatz und eine stabile Basis für die Entwicklung, Verwaltung und Bereitstellung agentischer KI-Workflows in vorhandenen Anwendungen.

Partnerschaften

Holen Sie mehr aus der Red Hat OpenShift AI Plattform heraus, indem Sie sie um zusätzliche integrierte Services und Produkte erweitern.

NVIDIA-Logo

NVIDIA und Red Hat bieten Kunden eine skalierbare Plattform, die eine Vielzahl von Use Cases für KI mit unvergleichlicher Flexibilität beschleunigt.

Intel-Logo

Intel® und Red Hat unterstützen Organisationen dabei, die Einführung von KI zu beschleunigen und ihre KI/ML-Modelle schnell zu operationalisieren.

IBM-Logo

IBM und Red Hat bieten Open Source-Innovationen zur Beschleunigung der KI-Entwicklung, unter anderem durch IBM watsonx.aiTM, einem unternehmensgerechten KI-Studio für KI-Entwicklungsteams. 

Starburst-Logo

Starburst Enterprise und Red Hat unterstützen verbesserte und zeitgerechtere Erkenntnisse durch schnelle Datenanalysen auf mehreren verschiedenen und verteilten Datenplattformen.

Zusammenarbeit über Modell-Workbenches

Mit AI Hub und Gen AI Studio können Platform Engineers und AI Engineers gen KI-Modelle in Zusammenarbeit schneller in die Produktion bringen. 

AI Hub ermöglicht Platform Engineers das Management von LLMs mit zentralen KI-Workloads und Insights zur Performance durch die Validierung von Drittanbietermodellen. Gen Ai Studio bietet AI Engineers eine praktische Umgebung, in der sie mit Modellen interagieren und schnell Prototypen von gen KI-Anwendungen erstellen können. Durch den Zugang zu einer Sandbox können die Teams die Eignung von Modellen vor der Lifecycle-Integration prüfen und mit Chat- und RAG-Workflows (Retrieval-Augmented Generation) experimentieren.

Außerdem haben Data Scientists Zugriff auf vorab erstellte oder benutzerdefinierte Cluster Images und können so mit den Modellen arbeiten, die ihre bevorzugten IDEs und Frameworks nutzen. Red Hat OpenShift AI verfolgt Änderungen an Jupyter, PyTorch, Kubeflow und anderen Open Source-basierten KI-Technologien.

Screenshot der Registerkarte für aktivierte Anwendungen in der Konsole von OpenShift AI

KI-Richtlinien sorgen dafür, dass Ihre gen KI-Modelle geschützt werden. Dauer des Videos: 10:02

Deployment und Sicherheit von Modellen mit Red Hat OpenShift AI skalieren

Sie können Modelle mit einer optimierten Version von vLLM (oder anderen Modellservern Ihrer Wahl) bereitstellen, um sie so in KI-fähige Anwendungen zu integrieren – On-Premise, in der Public Cloud oder am Edge. Diese Modelle lassen sich basierend auf Änderungen am Quell-Notebook neu erstellen, bereitstellen und überwachen.

Halluzinationen und Verzerrungen können die Integrität Ihrer Modelle beeinträchtigen und das Skalieren erschweren. OpenShift AI ermöglicht Datenteams das Monitoring von Modellausgaben und Trainingsdaten auf Übereinstimmung, um für Fairness, Sicherheit und Skalierbarkeit zu sorgen. 

Livedaten, die für Modellinferenz verwendet werden, werden mit speziellen Tools überwacht, um Abweichungen (Drift) von den ursprünglichen Trainingsdaten zu erkennen. Die enthaltenen KI-Richtlinien tragen zum Schutz Ihrer Modellein- und -ausgaben vor schädlichen Daten wie beleidigenden und anstößigen Äußerungen, personenbezogenen Daten oder anderen domainspezifischen Einschränkungen bei. 

Weitere KI Success Stories vom Red Hat Summit und AnsibleFest 2025

Turkish Airlines

Turkish Airlines verdoppelte die Geschwindigkeit der Bereitstellung durch unternehmensweiten Zugang zu Daten.

JCCM-Logo

JCCM konnte die Prozesse zur Umweltverträglichkeitsprüfung (UVP) in der Region mithilfe von KI verbessern.

DenizBank

Die Denizbank verkürzte die Markteinführungszeiten von Tagen auf wenige Minuten.

Hitachi-Logo

Hitachi hat KI in seinem gesamten Unternehmen mit Red Hat OpenShift AI operationalisiert.

Möglichkeiten zum Testen von Red Hat OpenShift AI

Developer Sandbox

Für Entwicklungsteams und Data Scientists, die KI-fähige Anwendungen in einer vorkonfigurierten und flexiblen Umgebung entwickeln und damit experimentieren wollen.

60-tägige Testversion

Ihr Unternehmen will die Möglichkeiten von OpenShift AI umfassend testen? Nutzen Sie unsere 60-tägige Testversion. Sie benötigen dazu einen Red Hat OpenShift Cluster.

Weitere KI-Ressourcen

DenizBank unterstützt seine Data Scientists mit Red Hat OpenShift AI

Schneller zum KI-Erfolg mit Open Source

Entwicklungsteams von Turkish Airlines fördern KI-Experimente mit OpenShift AI

5 Methoden zum erfolgreichen Einsatz von MLOps in Ihrem Unternehmen

Vertrieb kontaktieren

Sprechen Sie mit Red Hat über Red Hat AI