Feed abonnieren

Künstliche Intelligenz erweist sich als Gamechanger: Die Technologie liefert Erkenntnisse in Echtzeit und leitet daraus Handlungsempfehlungen ab. Doch KI ist kein Selbstläufer – Unternehmen müssen sich sehr wohl Gedanken über die Infrastruktur für die Entwicklung, Bereitstellung und Verwaltung ihrer Modelle machen. Eine offene Hybrid-Cloud-Plattform liefert nicht nur die dringend benötigte Rechenleistung, sondern auch die erforderliche Flexibilität. 

Die IT-Branche ist Hype-verliebt – aber selten hat ein Tool so eingeschlagen wie ChatGPT. Seit dieses interaktive Sprachmodell frei zur Verfügung steht, ist Künstliche Intelligenz in aller Munde und immer mehr Unternehmen experimentieren damit. Nicht verwunderlich, immerhin gilt die Automatisierung von Prozessen und Aufgaben sowie die vorausschauende Planung auf Basis von Echtzeitinformationen in einem angespannten Marktumfeld als entscheidender Wettbewerbsvorteil. Die Möglichkeiten jedenfalls sind breit gefächert und reichen vom autonomen Fahren über die verbesserte Risikoanalyse und Betrugserkennung bis hin zur frühzeitigen Krankheitserkennung im Gesundheitswesen. Speziell die Industrie nimmt mit Anwendungen wie Predictive Maintenance oder der robotergestützten Produktion eine Vorreiterrolle ein.  

Was Unternehmen jedoch gerne vergessen – ohne die passende Infrastruktur setzt KI nicht zum Höhenflug an. Auf der einen Seite entscheidet neben architektonischen und prozessbezogenen Aspekten die Rechen- und Speicherleistung über den Erfolg oder Misserfolg eines KI-Projekts. Genauso wichtig ist auf der anderen Seite eine hohe Agilität, Portabilität und Skalierbarkeit, denn nur dann lassen sich Modelle auch wirklich entwickeln, trainieren, feinabstimmen, integrieren und schließlich produktiv einsetzen. Während proprietäre Lösungen in der Regel zu komplex und zu unflexibel sind, stellt eine offene Kubernetes-basierte Hybrid-Cloud-Plattform die ideale Infrastrukturbasis für die vielfältigen Aufgaben dar. Auf einer solchen Plattform lassen sich skalierbare Konfigurationen erstellen, die speziell auf die Bedürfnisse von Data Scientists und Entwicklern zugeschnitten sind. Auch die Feinabstimmung bestehender Modelle im Hinblick auf die unternehmensspezifischen Aufgabenstellungen wird unterstützt, sodass die Kosten für das anfängliche Modelltraining sinken und sich die Zeit bis zur Wertschöpfung reduziert. Mit einer offenen Hybrid-Cloud-Plattform können Unternehmen darüber hinaus die Ressourcen dort bereitstellen, wo sie benötigt werden – im Rechenzentrum, am Netzwerkrand und in der Cloud. Das heißt, Betriebe mit strengen regulatorischen Vorgaben können Modelle mit sensitiven Daten on-premises entwickeln, trainieren und anschließend in der Cloud nutzen. Umgekehrt lassen sich Modelle mit anonymisierten Testdaten in der Public Cloud entwickeln sowie trainieren und anschließend in eine On-Premises-Anwendung oder an der Edge integrieren. Schließlich erfüllt eine Hybrid-Cloud-Plattform mit Security-Kontrollen, Versionierung und Archivierung wichtige Voraussetzungen für die sichere KI- und ML-Umsetzung.

Blickt man nun auf einzelne Features und Komponenten, sollte eine gute Lösung dem Nutzer Deployment-Pipelines für die Nachverfolgung von KI-Experimenten inklusive Workflows für die schnellere Iteration von Projekten und die automatisierte Bereitstellung und Aktualisierung von Anwendungen liefern. Auch ein Model Serving Framework, in das Data Scientists ihre validierten Systeme einstellen und Applikationsentwickler über Standard-APIs darauf zugreifen können, sowie ein Model Monitoring, das das Management von Performance- und Betriebsmetriken über ein zentrales Dashboard ermöglicht, sind nützliche Funktionen. 

Eine genauso wichtige Rolle nehmen MLOps-Modelle ein. Das heißt, das aus der Softwareentwicklung bekannte DevOps-Konzept wird auf das maschinelle Lernen übertragen. Ein ML-Lebenszyklus beinhaltet viele komplexe Bausteine, unter anderem Datenerfassung und -aufbereitung, Training, Modelloptimierung und -implementierung, Überwachung sowie Erklärbarkeit. Zudem setzt er eine eine enge, aufgabenübergreifende Zusammenarbeit voraus, um alle diese Prozesse zu synchronisieren. Nur so ist eine effiziente, zuverlässige und qualitativ hochwertige Gestaltung von ML-Modellen garantiert. Und nur so lassen sich die Modelle als Software-Artefakte wiederholt einsetzen. 

Ich bin davon überzeugt: Nahezu jedes Unternehmen wird sich in der nächsten Zeit intensiv mit den Themen KI und ML beschäftigen müssen. Eine optimale Lösung bieten Open-Hybrid-Cloud-Plattformen, die in Kombination mit einem breiten Ökosystem von Partnertechnologien, Services und Schulungen Unternehmen in die Lage versetzen, schnell eine produktionsbereite Umgebung bereitzustellen.

* Dominic Schmitt ist Director Ecosystem Central Europe bei Red Hat


Über den Autor

UI_Icon-Red_Hat-Close-A-Black-RGB

Nach Thema durchsuchen

automation icon

Automatisierung

Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen

AI icon

Künstliche Intelligenz

Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen

open hybrid cloud icon

Open Hybrid Cloud

Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.

security icon

Sicherheit

Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren

edge icon

Edge Computing

Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen

Infrastructure icon

Infrastruktur

Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen

application development icon

Anwendungen

Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen

Original series icon

Original Shows

Interessantes von den Experten, die die Technologien in Unternehmen mitgestalten