Was ist Deep Learning?

URL kopieren

Deep Learning ist ein KI-Verfahren (Künstliche Intelligenz), das Computern beibringt, Daten mithilfe eines Algorithmus zu verarbeiten, der sich an die Funktionsweise des menschlichen Gehirns anlehnt. 

Mehr über Red Hat AI erfahren

Deep Learning nutzt künstliche Intelligenz und maschinelles Lernen (KI und ML), um Data Scientists bei der Erfassung, Analyse und Interpretation großer Datenmengen zu unterstützen. Beim Deep Learning, auch bekannt unter den Begriffen „Deep Neural Learning“ oder „Deep Neural Networking“, lernen Computer, Wissen durch Beobachtung zu erwerben. Sie imitieren also die Art und Weise, wie wir Menschen uns Wissen aneignen.

Im menschlichen Gehirn finden sich viele miteinander vernetzte Neuronen, die als Boten für Informationen fungieren, wenn das Gehirn Informationen (oder Daten) verarbeitet. Neuronen nutzen elektrische Impulse und chemische Signale, um miteinander zu kommunizieren und Informationen zwischen den unterschiedlichen Bereichen des Gehirns zu übertragen. 

Auf diesem biologischen System basieren künstliche neuronale Netze (KNNs), die Architektur, die Deep Learning als Grundlage dient. KNNs werden aus künstlichen Neuronen gebildet, die aus Softwaremodulen bestehen, die als Knoten oder Nodes bezeichnet werden. Anders als das Gehirn, das chemische Signale nutzt, kommunizieren und übermitteln diese Knoten Informationen mithilfe mathematischer Berechnungen. Dieses simulierte neuronale Netz (SNN) verarbeitet Daten, indem es Datenpunkte in Cluster gruppiert und Vorhersagen trifft.

Wir können uns Deep Learning (DL) als eine Art Flussdiagramm vorstellen, das mit einer Eingabeschicht beginnt und mit einer Ausgabeschicht endet. Zwischen diesen beiden Schichten befinden sich sogenannte „verborgene Schichten“, die Informationen auf unterschiedlichen Ebenen verarbeiten und dabei ihr Verhalten mit dem Empfang neuer Daten kontinuierlich anpassen. DL-Modelle können Hunderte von verborgenen Schichten aufweisen, die beim Entdecken von Zusammenhängen und Mustern innerhalb des Datensatzes eine Rolle spielen. 

In der aus mehreren Knoten bestehenden Eingabeschicht werden Daten in das Modell eingeführt, kategorisiert und anschließend in die nächste Schicht verschoben. Der Weg der Daten durch die verschiedenen Schichten basiert dabei auf den Berechnungen, die für die einzelnen Knoten festgelegt wurden. Während die Daten so sämtliche Schichten durchlaufen, beziehen sie Beobachtungen mit ein, die schließlich die Ausgabe – die finale Analyse – der Daten bilden.

Red Hat Ressourcen

Anwendungen, die Deep Learning einsetzen, sind bereits in unser tägliches Leben integriert und finden in vielen verschiedenen Branchen Verwendung. Die generative KI, auf der mittlerweile viele KI-Tools basieren, wird durch Deep Learning ermöglicht.

Use Cases für Deep Learning entwickeln sich ständig weiter. Zu den aktuell am meisten genutzten Technologien gehören maschinelles Sehen, Spracherkennung und NLP (Natural Language Processing). 

  • Maschinelles Sehen: Computer können mithilfe von DL-Methoden Bilder auf die gleiche Weise erfassen und verstehen, wie Menschen es tun. Dazu gehört die automatisierte Moderation von Inhalten, die Gesichtserkennung und die Klassifizierung von Bildern. 
  • Spracherkennung: DL-Modelle können Tonhöhe und Tonfall sowie verschiedene Sprachen und Akzente analysieren. Diese Fähigkeit lässt sich nicht nur für ein besseres Kundenerlebnis nutzen, sondern auch unter dem Gesichtspunkt der Barrierefreiheit für Fälle, in denen eine Transkription in Echtzeit erforderlich ist.
  • NLP (Natural Language Processing): Mit DL-Algorithmen können Computer Textdaten und Dokumente analysieren und Erkenntnisse daraus gewinnen. So lassen sich lange Dokumente zusammenfassen, zentrale Aussagen indexieren, die ein bestimmtes Sentiment erkennen lassen (etwa positive oder negative Kommentare), und Erkenntnisse für automatisierte virtuelle Assistenten und Chatbots generieren. NLP ist der weiter gefasste Bereich, der Entwicklung und Anwendung von Large Language Models (LLMs) zum Verstehen und Generieren menschlicher Sprache umfasst.
     

Hier sind einige Beispiele, wie die Prinzipien von Deep Learning in verschiedenen Branchen genutzt werden:

  • Kundenservice: Chatbots, virtuelle Assistenten und Serviceportale mit Einwahlmöglichkeit nutzen Tools wie Spracherkennung. 
  • Finanzdienstleistungen: Prädiktive Analysen steuern den algorithmischen (also automatisierten) Wertpapierhandel, bewerten die geschäftlichen Risiken bei der Bewilligung von Darlehensanträgen, decken Betrug auf und unterstützen das Management von Kredit- und Anlageportfolios.
  • Gesundheitswesen: Durch die Digitalisierung von Patientenakten können Bilderkennungsanwendungen Fachkräfte im Bereich bildgebende Diagnostik unterstützen. Solche Anwendungen können lernen, automatisch Warnzeichen zu erkennen, die auf potenzielle medizinische Diagnosen hinweisen. Lesen Sie, wie HCA Healthcare mithilfe von prädiktiven Analysen einen standardisierten digitalen Ansatz für die Diagnose einer Sepsis etabliert. 
  • Medien und Unterhaltung: Ob Onlineshopping oder Streaming-Services – mithilfe von Deep Learning werden die Aktivitäten von Nutzenden nachverfolgt, um personalisierte Empfehlungen zu entwickeln.
  • Industrielle Automatisierung: Beim Einsatz in Fabriken und Lagerhäusern können DL-Anwendungen automatisch erkennen, wenn Menschen oder Objekte keinen ausreichenden Sicherheitsabstand zu Maschinen haben. Auch im Bereich Qualitätskontrolle oder prädiktive Wartung lässt sich Deep Learning nutzen. 
  • Selbstfahrende Autos: Forschende der Automobilbranche trainieren Autos mithilfe von Deep Learning, Objekte wie Stoppschilder, Ampeln, Zebrastreifen und zu Fuß gehende Menschen zu erkennen.
  • Gesetzesvollzug: Spracherkennung, maschinelles Sehen und NLP (Natural Language Processing) können Zeit und Ressourcen sparen, da sie die Analyse großer Datenmengen erleichtern. 
  • Luft- und Raumfahrt sowie Militär: Bei der Überwachung großer geografischer Bereiche lässt sich Deep Learning nutzen, um Objekte zu erkennen, wichtige Bereiche aus der Ferne zu identifizieren und für Truppen sichere oder unsichere Gebiete zu verifizieren. 

Mehr über Use Cases für KI/ML erfahren

Deep Learning ist eine spezielle Form des maschinellen Lernens und unterscheidet sich durch die Art der verarbeiteten Daten und die Lernmethoden, die dabei zur Anwendung kommen.

Bei klassischen ML-Algorithmen ist ein gewisses Maß an menschlicher Intervention erforderlich: Die Datensätze müssen vorverarbeitet werden, bevor sie in das Modell eingeführt werden. Anhand der Eingabedaten werden bestimmte Features definiert und dann entsprechend markiert, in Tabellen organisiert und anschließend in das ML-Modell eingeführt. Bei DL-Algorithmen hingegen ist ein solches Maß an Vorverarbeitung nicht erforderlich. Sie können auch unstrukturierte Daten wie Textdokumente, Bilder mit Pixeldaten oder Dateien mit Audiodaten verstehen. 

In Fällen mit sehr großen Datenmengen, fehlendem Hintergrundwissen zum Thema oder komplexen, zeitaufwendigen Aufgaben kann Deep Learning gegenüber klassischem maschinellem Lernen gegebenenfalls die bevorzugte Lösung sein.

Wir wissen jetzt, dass Deep Learning auf einer Struktur von Knoten basiert, die in einem künstlichen neuronalen Netz miteinander kommunizieren. Um ein solches KNN zu erstellen, müssen zusätzlich zu den Daten auch Berechnungen und Parameter in das Modell eingespeist werden. Außerdem müssen die notwendigen Vorkehrungen getroffen werden, um sicherzustellen, dass die Berechnungen Verzerrung und Varianz berücksichtigen. 

Beim maschinellen Lernen bezieht sich Verzerrung darauf, inwieweit Ihr Modell Annahmen oder Generalisierungen auf die Daten anwendet, um die Zielfunktion einfacher lernen zu können. Eine hohe Verzerrung bedeutet, dass das Modell bei der Verarbeitung von Informationen (fehlerhafte) Vereinfachungen und Abkürzungen vornimmt. 

Varianz bezieht sich darauf, wie weit die einzelnen Datenpunkte vom Mittel entfernt sind, oder darauf, wie weit bei der statistischen Messung der Abstand zwischen den Zahlen in einem Datensatz ist. Im Gegensatz zur Verzerrung bezieht sich Varianz darauf, wie sensibel ein Modell hinsichtlich der Trainingsdaten ist. Eine hohe Varianz (oder Sensibilität) bedeutet, dass das Modell zu sehr auf Details achtet und die zugrunde liegenden Muster im Datensatz nicht erkennt. 

Wenn beim überwachten Lernen die Varianz zu hoch und die Verzerrung zu niedrig ist, spricht man von Überanpassung. Wenn die Verzerrung hoch und die Varianz niedrig ist, spricht man von Unteranpassung. Eine optimale Lösung zu erstellen ist nicht einfach, und das Phänomen ist allgemein als Verzerrung-Varianz-Dilemma bekannt. 

Parameter definieren Grenzen, und Grenzen sind entscheidend, um die enormen Datenmengen zu verstehen, die Deep Learning-Algorithmen verarbeiten müssen. Überanpassung und Unteranpassung lassen sich dabei oft korrigieren, indem jeweils weniger oder mehr Parameter verwendet werden. 

Berücksichtigung menschlicher Verzerrung 

Wenn ein DL-Modell anhand von Daten trainiert wird, die statistisch verzerrt sind oder keine akkurate Darstellung der Bevölkerung bieten, kann es zu einer fehlerhaften oder verfälschten Ausgabe kommen. Bestehende menschliche Verzerrung wird leider oft auf künstliche Intelligenz übertragen und birgt somit das Risiko, diskriminierende Algorithmen und verzerrte Ausgaben zu schaffen. 

Der Einsatz von KI in Unternehmen zur Verbesserung von Produktivität und Performance nimmt stetig zu. Daher ist es entscheidend, dass dafür Strategien eingesetzt werden, um Verzerrungen zu minimieren. Dies beginnt bereits mit inklusiven Design-Prozessen und einer sorgfältigeren Berücksichtigung von repräsentativer Diversität innerhalb der erfassten Daten. 

Was ist eine Black Box?

Der Ausdruck „Black Box“ bezieht sich auf den Fall, dass ein KI-Programm eine Aufgabe in seinem neuronalen Netz durchführt und seine Arbeit nicht zeigt. Dadurch kommt es zu einer Situation, in der nicht einmal die Data Scientists und Engineers, die den Algorithmus entwickelt haben, genau erklären können, wie das Modell zu einer bestimmten Ausgabe gelangt ist. Durch den Mangel an Interpretierbarkeit bei Black Box-Modellen kann es zu negativen Auswirkungen kommen, wenn diese für Entscheidungen von großer Tragweite genutzt werden, besonders in Branchen wie Gesundheitswesen, Finanzwesen oder Strafrecht. 

DL-Modelle können komplexere Rechenaufgaben ohne menschliches Eingreifen durchführen, erfordern dabei aber eine höhere Rechenleistung, eine ausreichende Infrastruktur und größere Trainingsdatensätze. Mit Cloud Computing können Teams gleichzeitig auf mehrere Prozessoren zugreifen, etwa Cluster von GPUs (Graphic Processing Units) und CPUs (Central Processing Units) – eine ideale Umgebung zum Durchführen komplexer mathematischer Operationen.

Werden DL-Modelle in der Cloud entworfen, entwickelt und trainiert, können Entwicklungsteams Workloads schnell und genau skalieren und verteilen. Gleichzeitig sinken dabei die operativen Kosten. 

 

Deep Learning und maschinelles Lernen am Edge

Das Arbeiten in der Cloud eröffnet Möglichkeiten für den Einsatz von maschinellem Lernen am Edge. Durch das Etablieren von Edge Computing Hubs, die mit Public Cloud-Ressourcen verknüpft sind, lassen sich Informationen in Echtzeit erfassen und analysieren. Dadurch können sie verschiedene Abläufe unterstützen: von Statusaktualisierungen in Lieferketten bis hin zu Informationen über Evakuierungsorte bei Katastrophen. 

Mit Red Hat® AI profitieren Ihre Teams von den oben genannten Vorteilen – maschinelles Sehen, Spracherkennung, Natural Language Processing (NLP) – und mehr.

Unser KI-Produktportfolio basiert auf den vertrauenswürdigen Lösungen, die unsere Kunden bereits nutzen. Dank dieser Basis bleiben unsere Produkte auch weiterhin zuverlässig, flexibel und skalierbar.

Mit Red Hat AI können Unternehmen folgende Ziele erreichen:

  • KI schnell einführen und Innovationen schaffen
  • Die Komplexitäten beim Bereitstellen von KI-Lösungen umgehen
  • In vielen verschiedenen Umgebungen bereitstellen

Mehr über Red Hat AI erfahren 

Tools zum Experimentieren mit Deep Learning

Unabhängig davon, ob Sie Algorithmen für maschinelles Lernen entwickeln oder prädiktive Modelle neu erstellen möchten, bieten Ihnen die verschiedenen Tools von Red Hat OpenShift AI vielfältige Einstiegsmöglichkeiten. 

Die KI-Plattform bietet Tools wie interaktive Schnittstellen auf Basis von JupyterLab, nahtlosen Zugriff auf zentrale KI/ML-Libraries und häufig verwendete Frameworks. Außerdem verfügt sie über einen visuellen Editor zum Erstellen und Automatisieren von Data Science Pipelines. In Kombination mit CI/CD-Pipelines können Teams ihre MLOps verbessern und so ihre operative Effizienz steigern und mehr KI-Modelle schneller in die Produktion überführen.

Mehr über Red Hat OpenShift AI erfahren 

Red Hat AI Partner

Außerdem erweitert sich unser KI-Partnernetzwerk. Viele verschiedene Technologiepartner arbeiten mit Red Hat zusammen, um die Kompatibilität mit Red Hat AI zu zertifizieren. Somit eröffnen sich Ihnen viele neue Möglichkeiten.

Mehr über unsere Partner erfahren 

Hub

Der offizielle Red Hat Blog

Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

Was ist vLLM?

Bei vLLM handelt es sich um Open Source Codes, mit denen Sprachmodelle Berechnungen effizienter durchführen können.

Was ist KI-Inferenz?

KI-Inferenz bezieht sich auf den Vorgang, bei dem ein KI-Modell eine auf Daten basierende Antwort gibt. Es handelt sich damit um den letzten Schritt in einem komplexen Prozess der ML-Technologie (Maschinelles Lernen).

Prädiktive KI im Vergleich zu generativer KI

Sowohl gen KI als auch prädiktive KI weisen erhebliche Unterschiede und Use Cases auf. Im Zuge der Weiterentwicklung von KI hilft die Unterscheidung zwischen diesen beiden Typen dabei, ihre unterschiedlichen Fähigkeiten zu verdeutlichen.

Ressourcen zu KI/ML