KI-Infrastruktur

URL kopieren

Da Künstliche Intelligenz (KI) zunehmend im Alltag genutzt wird, ist es heute entscheidend, eine Struktur zu haben, die effektive und effiziente Workflows ermöglicht. Hier kommt KI-Infrastruktur ins Spiel. 

Mit einer gut konzipierten Infrastruktur können Mitarbeitende in den Bereichen Data Science und Entwicklung einfacher auf Daten zugreifen, ML-Algorithmen bereitstellen und die Computing-Ressourcen der Hardware besser verwalten.

KI-Infrastruktur kombiniert KI- und ML-Technologie (Künstliche Intelligenz/Maschinelles Lernen), um zuverlässige und skalierbare Datenlösungen zu entwickeln und bereitzustellen. Diese Technologie ist es, die maschinelles Lernen möglich macht und damit Maschinen wie Menschen denken lässt.

Beim Machine Learning wird ein Computer darauf trainiert, Muster zu finden, Vorhersagen zu treffen und aus Erfahrungen zu lernen, ohne explizit programmiert zu werden. Dies lässt sich auf generative KI anwenden und wird durch Deep Learning ermöglicht, einer maschinellen Lerntechnik zur Analyse und Interpretation großer Datenmengen.

Mehr über Red Hat AI erfahren


Technologie-Stack der KI-Infrastruktur 

Ein Technologie-Stack, kurz Tech-Stack, umfasst die verschiedenen Technologien, Frameworks und Tools, die für das Entwickeln und Bereitstellen von Softwareanwendungen genutzt werden. Bildlich erklärt werden diese Technologien übereinander „gestapelt“ und bilden so eine Anwendung. Der Technologie-Stack einer KI-Infrastruktur kann über 3 wesentliche Schichten die Entwicklung und Bereitstellung von Anwendungen beschleunigen. 

Wie sieht ein KI-Tech-Stack im Unternehmen aus? 

Die Anwendungsschicht ermöglicht es Menschen, bei der Arbeit mit Tools wie beispielsweise End-to-End-Apps oder auf Nutzende ausgerichteten Apps mit Maschinen zusammenzuarbeiten. Endbenutzeranwendungen werden gewöhnlich mit KI-Frameworks entwickelt, die auf Open Source basieren, um Modelle zu erstellen, die anpassbar sind und so auf spezifische geschäftliche Anforderungen zugeschnitten werden können. 

Die Modellschicht ermöglicht die Funktionsweise von KI-Produkten. Diese Schicht erfordert eine Hosting-Lösung für die Bereitstellung. Es gibt 3 Modelle, die eine Basis bilden.

  • Allgemeine KI: Imitiert die Denk- und Entscheidungsfähigkeit des menschlichen Gehirns. Dazu zählen KI-Anwendungen wie ChatGPT und DALL-E von OpenAI.
  • Spezifische KI: Verwendet spezifische Daten, um die exakten Ergebnisse zu generieren. Dazu zählen Aufgaben wie das Generieren von Werbe- und Songtexten.
  • Hyperlokale KI: die Art von künstlicher Intelligenz, die das höchste Maß an Genauigkeit und Relevanz erreichen kann und für den fachspezifischen Einsatz in ihrem Bereich konzipiert ist. Dazu zählen das Schreiben von wissenschaftlichen Artikeln oder das Erstellen von Innenausstattungsmodellen.

Die Infrastrukturschicht enthält die Hardware und Software, die zum Entwickeln und Trainieren von Modellen benötigt wird. In diese Schicht fallen Komponenten wie GPUs oder andere spezialisierte Prozessoren (Hardware) sowie Optimierungs- und Deployment-Tools (Software). Auch Cloud Computing-Services sind Teil der Infrastrukturschicht. 

Wir kennen nun die 3 beteiligten Schichten einer KI-Infrastruktur und sehen uns jetzt einige Komponenten an, die für das Entwickeln, Bereitstellen und Warten von KI-Modellen erforderlich sind. 

Datenspeicherung

Unter Daten-Storage versteht man das Erfassen und Speichern digitaler Daten – der Bits und Bytes hinter Anwendungen, Netzwerkprotokollen, Dokumenten, Medien, Adressbüchern, Benutzereinstellungen und mehr. Daten-Storage ist wichtig für das Speichern, Organisieren und Abrufen von KI-Informationen.

Datenmanagement

Datenmanagement ist der Prozess der Datenerfassung, -speicherung und -nutzung, der häufig durch Datenmanagementsoftware vereinfacht wird. Dadurch erhalten Sie einen Überblick darüber, welche Daten Sie vorliegen haben, wo sie sich befinden, wem sie gehören, wer sie sehen kann und wie auf sie zugegriffen wird. Mit den entsprechenden Kontrollen und Implementierungen liefern die Datenmanagement-Workflows die analytischen Erkenntnisse, die für eine bessere Entscheidungsfindung erforderlich sind.

Optimierungssoftware:

Mit Optimierungssoftware wie vLLM und llm-dkönnen Sie Ihre Hardware so effizient wie möglich ausführen.

  • vLLM steht für Virtual Large Language Model und ist eine Library von Open Source Codes. Das Modell unterstützt Large Language Models (LLMs) dabei, Berechnungen effizienter und in großem Umfang durchzuführen. Noch konkreter handelt es sich bei vLLM um einen Inferenzserver, der den Output von generativen KI-Anwendungen mithilfe einer effizienteren Nutzung des GPU-Speichers beschleunigt.
  • llm-d ist ein Kubernetes-natives Open Source Framework, das die verteilte Inferenz in großem Umfang beschleunigt. llm-d baut auf der Leistungsfähigkeit von vLLM auf und fungiert als Koordinator, um die Verarbeitung so schnell und effizient wie möglich zu gestalten. 

Was ist KI-Inferenz?

ML-Frameworks

Maschinelles Lernen (ML) ist eine Unterkategorie der künstlichen Intelligenz (KI). Dabei werden Algorithmen verwendet, um innerhalb eines Datensatzes Muster zu erkennen und Vorhersagen zu treffen. Die Frameworks stellen zusätzlich die benötigten Tools und Libraries zur Verfügung. 

Machine Learning Operations 

Machine Learning Operations (MLOps) bezeichnet eine Reihe von Workflow-Praktiken mit dem Ziel, Erstellung, Management und Monitoring von ML-Modellen zu optimieren. MLOps orientiert sich an Grundsätzen von DevOps und GitOps, um einen kontinuierlichen und sich ständig weiterentwickelnden Prozess für die Integration von ML-Modellen in die Softwareentwicklung zu etablieren.  

Mehr über die Entwicklung einer KI/ML-Umgebung erfahren

Red Hat Ressourcen

Eine solide KI-Infrastruktur mit etablierten Komponenten sorgt für mehr Innovation und Effizienz. Allerdings sollten beim Design einer KI-Infrastruktur Vorteile, Herausforderungen und Anwendungen in Betracht gezogen werden. 

Vorteile

KI-Infrastruktur bietet mehrere Vorteile für Ihre KI-Operationen und -Organisationen. Ein Pluspunkt ist die Skalierbarkeit, dank der Sie Operationen nach Bedarf hoch- und herunterskalieren können, insbesondere bei cloudbasierten KI/ML-Lösungen. Ein weiterer Vorteil ist die Automatisierung, durch die sich Fehler bei repetitiver Arbeit reduzieren und Lieferzeiten von Leistungen verkürzen lassen.

Was ist Models as a Service? 

Herausforderungen

Trotz der vielen Vorteile bringt die KI-Infrastruktur auch einige Herausforderungen mit sich. Eine der größten Herausforderungen ist die Menge und Qualität der Daten, die verarbeitet werden müssen. KI-Systeme sind beim Lernen und bei der Entscheidungsfindung auf sehr große Datenmengen angewiesen. Daher reichen herkömmliche Methoden zur Speicherung und Verarbeitung von Daten mitunter nicht aus, um den Umfang und die Komplexität von KI-Workloads zu bewältigen. Eine weitere große Herausforderung ergibt sich daraus, dass Echtzeitanalysen und -entscheidungen erforderlich sind. Diese Anforderung bedeutet, dass die Infrastruktur Daten schnell und effizient verarbeiten muss. Diesen Punkt gilt es bei der Wahl der richtigen Lösung zu beachten, damit auch sehr große Datenvolumen verarbeitet werden können.

Erfahren Sie, wie Automatisierung helfen kann

Anwendungen

Es gibt Anwendungen, mit denen Sie diese Herausforderungen besser meistern können. Mit den Cloud Services von Red Hat® OpenShift® können Sie Anwendungen schnell entwickeln, bereitstellen und skalieren. Außerdem können Sie die Konsistenz und Sicherheit mit proaktivem Management und Support verbessern. Mit Red Hat Edge können Sie Anwendungen näher am Ort der Datenerfassung bereitstellen und so umsetzbare Erkenntnisse gewinnen.

Mehr über Cloud Services für KI/ML erfahren

Sicherheit 

KI-Sicherheit dient dem Schutz von KI-Anwendungen vor böswilligen Angriffen, die darauf abzielen, Workloads zu schwächen, Daten zu manipulieren oder sensible Informationen zu stehlen. Sie passt die Standards für Vertraulichkeit, Integrität und Verfügbarkeit an den KI-Lifecycle und technische Ökosysteme an. Für den Schutz Ihrer KI-Systeme ist es wichtig, diese im Detail zu verstehen. Je besser Sie Ihre KI-Technologie und ihre Infrastruktur verstehen, desto besser können Sie sie schützen.

Mehr über KI-Sicherheit erfahren 

Wenn Sie über Ihre KI-Infrastruktur nachdenken, dürfen Sie auch Inferenznicht vergessen. Ihre Infrastruktur kann einen großen Einfluss auf Ihre Inferenzfunktionen haben. Auswirkungen von KI-Infrastruktur auf Folgendes:

  • Latenz
  • Pro Sekunde generierte Token
  • Nebenläufigkeit von Nutzenden
  • Kosten

Eine KI-Infrastruktur, die keine Inferenz unterstützt, kann zu langsameren Antwortzeiten und Latenzengpässen führen und die Skalierung verteuern. Deshalb kann die Hardware und Software, die Ihre Inferenzfunktionen unterstützen, über Erfolg oder Misserfolg Ihrer KI-Strategie entscheiden.

Warum Sie sich mit KI-Inferenz befassen sollten

Red Hat AI ist eine Plattform mit Produkten und Services, die Ihr Unternehmen bei den einzelnen Phasen der KI-Einführung unterstützen kann – unabhängig davon, ob Sie gerade erst beginnen oder schon skalierungsbereit sind. Die Lösungen können sowohl generative als auch prädiktive KI-Initiativen für die spezifischen Use Cases Ihres Unternehmens unterstützen.

Mit Red Hat AI erhalten Sie Zugriff auf Red Hat® AI Inference Server, mit dem Sie die Modellinferenz in der gesamten Hybrid Cloud optimieren und so schnellere und kosteneffiziente Deployments erzielen können. Der auf vLLM basierende Inferenzserver maximiert die GPU-Nutzung und ermöglicht schnellere Reaktionszeiten.

Mehr über Red Hat AI Inference Server erfahren 

Red Hat AI Inference Server umfasst das Repository von Red Hat AI, eine Kollektion validierter und optimierter Drittanbietermodelle, die mehr Modellflexibilität und teamübergreifende Konsistenz ermöglicht. Durch den Zugriff auf das Repository von Drittanbietermodellen können Unternehmen die Markteinführungszeit verkürzen und finanzielle Hindernisse für eine erfolgreiche KI-Implementierung abbauen. 

Mehr über validierte Modelle von Red Hat AI erfahren

Der offizielle Red Hat Blog

Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.

Das adaptive Unternehmen: KI-Bereitschaft heißt Disruptionsbereitschaft

Dieses E-Book, verfasst von Michael Ferris, COO und CSO von Red Hat, befasst sich mit dem Tempo des Wandels und den technologischen Umbrüchen durch KI, mit denen IT-Führungskräfte aktuell konfrontiert sind.

Weiterlesen

Künstliche Intelligenz (KI) im Gesundheitswesen

Wie wird KI im Gesundheitswesen eingesetzt? Chancen, Vorteile und Herausforderungen künstlicher Intelligenz in der Gesundheitswirtschaft | Red Hat DE

Was ist Machine Learning?

Beim Machine Learning wird ein Computer darauf trainiert, Muster zu finden, Vorhersagen zu treffen und aus Erfahrungen zu lernen, ohne explizit programmiert zu werden.

KI im Unternehmen nutzen | KI Anwendungen in der Praxis

Erfahren Sie, wie Unternehmen KI und Machine Learning effektiv nutzen. Entdecken Sie Anwendungsfälle für Automatisierung, Datenanalyse, Kundenservice und mehr.

Ressourcen zu KI/ML

Verwandte Artikel