Feed abonnieren

Vor einem Jahr stand ich beim Red Hat Summit auf der Bühne und habe darüber gesprochen, dass unsere Branche einen KI-Moment erlebt. Erst wenige Monate zuvor wurde das Potenzial generativer KI-Technologien wie ChatGPT weltweit bekannt.

Seitdem haben die Spekulationen über die Möglichkeiten generativer KI in den Vorstandsetagen, in den Engineering Communities und sogar am Esstisch mit Familie und Freunden rasant zugenommen. Kann sie die Produktivität meiner Mitarbeitenden wirklich um das Zehnfache steigern? Sind eine Billion Parameter viel? Ist es in Ordnung, das Modell meine Diagramme für den Statistikunterricht erstellen zu lassen?

Meine persönlichen Experimente mit generativer KI haben mir einige lange Nächte beschert. Ich habe Modelle auf meinen Laptop heruntergeladen. Ich habe damit Code geschrieben, E-Mails verfasst und Berichte erstellt. Ich bin begeistert von den Möglichkeiten, die sich ergeben, wenn man seine eigene Neugier mit den Informationen der Welt und einem KI-Assistenten kombiniert, der in den verschiedensten Bereichen „Fachwissen“ einbringt. Sagen wir, diese Begeisterung ist eine 8 von 10.

Aber wenn ich auf diese ersten Experimente zurückblicke, wird mir jetzt klar, dass etwas fehlte. Dabei stellte ich mir beispielsweise folgende Fragen:

  • „Warum kann ich diese KI nicht persönlicher gestalten?“
  • „Wie könnte diese KI meine Teams mehr unterstützen?“
  • „Wie wäre es, wenn Communities dies verbessern könnten, so wie bei Open Source-Software?“
  • „Wird die KI dem Muster von Open Source folgen, oder kehren wir zu proprietären Systemen zurück?“

Von mir als Führungskraft wird erwartet, dass ich das Bestmögliche aus unseren Teams heraushole. Die Herausforderung besteht darin, dass wir ein dynamisches Unternehmen sind, dessen Beschäftigte über die ganze Welt verteilt sind. Wir haben unterschiedliche Fachkenntnisse, die zur gleichen Zeit an verschiedenen Orten benötigt werden. Wie können wir die Kompetenzen und Kenntnisse unserer Mitarbeitenden nutzen, um möglichst viele Unternehmensbereiche zu verbessern? Deshalb habe ich die Mitarbeiterinnen und Mitarbeiter von Red Hat mit folgender Anmerkung herausgefordert:

Irgendwo in unserem Unternehmen gibt es eine Fachexpertin oder einen Fachexperten mit Kompetenzen und Kenntnissen über einen bestimmten Teil unseres Geschäfts. Und irgendwo anders im Unternehmen gibt es einen Manager, der sich wünscht, er hätte Dutzende oder Tausende von Klonen dieses Fachexperten in seinem Team. In einer perfekten Welt gäbe es eine einfache Möglichkeit, die Kompetenzen und Kenntnisse einer Einzelperson auf das gesamte Team oder mehrere Teams zu übertragen. Dies würde ein schnelleres Wachstum des Unternehmens ermöglichen. Die Komplexität beim Onboarding neuer Beschäftigter würde dadurch verringert werden. Sie würde neue Ideen fördern, weil die Basis an Fachwissen für jeden verfügbar wäre, um darauf aufzubauen. Und vielleicht kann die Fachkraft dadurch sogar ihren bevorstehenden Urlaub ein wenig mehr genießen – in der Gewissheit, dass ihr Telefon nicht klingelt, während sie am Strand entspannt.

Unsere Führungsteam erkannte, dass dies nicht nur Red Hat verbessern würde, sondern auch potentiell das Geschäft unserer Kunden erheblich optimieren könnte. Und wenn wir gemeinsam daran arbeiten, könnten auch unsere Partner ihr Know-how einbringen.

Während ich mich also auf meinen Vortrag beim Red Hat Summit diese Woche vorbereite, kann ich jetzt ankündigen, dass wir dieses Potenzial in die Tat umgesetzt haben. In Zusammenarbeit mit IBM gehen wir den nächsten Schritt beim Einführen von Open Source in die KI. In den letzten 2 Wochen haben wir 2 wichtige Elemente mit Open Source bereitgestellt, die unserer Meinung nach für ein wirklich offenes Erlebnis in der Welt generativer KI-LLMs sorgen werden.

Red Hat und IBM haben die Sprache Granit und die LLMs von Code-Assistenten als Open Source-Software entwickelt. Dies baut auf den Bemühungen von Meta und Mistral auf, offene Modelle auf den Markt zu bringen. Wir gehen noch einen Schritt weiter, indem wir nicht nur das Modell als Open Source bereitstellen (Lizenz), sondern auch die Gewichtungen und Datenquellen.

Außerdem haben wir InstructLab als Open Source entwickelt, das eine neuartige, auf synthetischen Daten basierende Methode zur Ausrichtungsabstimmung für große Sprachmodelle verwendet. Mit InstructLab können nicht nur Data Scientists, sondern auch Fachleute beim Trainieren und Optimieren eines Modells helfen.

Mit diesen beiden Ankündigungen können Communities LLMs beibringen, auf die gleiche Weise zu lernen wie Menschen.

Indem wir der Community eine Reihe offener Modelle zur Verfügung stellen, können wir zusammen in einer offenen Umgebung zusammenarbeiten und so Modelle entwickeln, die einen Mehrwert für Einzelpersonen, Teams und Unternehmen bieten. Indem wir diese Modelle mit offenen Tools ausstatten, mit denen beliebige Personen Beiträge zu einem Modell leisten und es auf neue Art und Weise optimieren können, können wir das Wissenspotenzial standortunabhängig voll ausschöpfen.

Wir sind davon überzeugt, dass diese beiden Ankündigungen die nächsten Schritte sind, um den Wert offener Communities, offener Beiträge und offener Ideen für die KI zu nutzen. Indem wir die Hindernisse für eine aktive Teilnahme an der Entwicklung von KI reduzieren, die IHRE Arbeit, IHRE Teams und IHR Unternehmen nutzen können, glauben wir, dass die nächste Generation von KI für Unternehmen unmittelbar bevorsteht.

Im Namen von Red Hat freuen wir uns auf die Zusammenarbeit mit Ihnen allen, um die Basis von Open Source in die KI zu integrieren. Entdecken wir, was möglich ist! 


Über den Autor

Matt Hicks was named President and Chief Executive Officer of Red Hat in July 2022. In his previous role, he was Executive Vice President of Products and Technologies where he was responsible for product engineering for much of the company’s portfolio, including Red Hat® OpenShift® and Red Hat Enterprise Linux®. He is one of the founding members of the OpenShift team and has been at the forefront of cloud computing ever since.

Prior to joining Red Hat 16 years ago, Hicks served in various roles spanning computer engineering, IT, and consulting. He has worked with Linux and open source for more than 25 years, and his breadth of experience has helped him solve customer and business problems across all areas of IT.

Read full bio
UI_Icon-Red_Hat-Close-A-Black-RGB

Nach Thema durchsuchen

automation icon

Automatisierung

Das Neueste zum Thema IT-Automatisierung für Technologien, Teams und Umgebungen

AI icon

Künstliche Intelligenz

Erfahren Sie das Neueste von den Plattformen, die es Kunden ermöglichen, KI-Workloads beliebig auszuführen

open hybrid cloud icon

Open Hybrid Cloud

Erfahren Sie, wie wir eine flexiblere Zukunft mit Hybrid Clouds schaffen.

security icon

Sicherheit

Erfahren Sie, wie wir Risiken in verschiedenen Umgebungen und Technologien reduzieren

edge icon

Edge Computing

Erfahren Sie das Neueste von den Plattformen, die die Operations am Edge vereinfachen

Infrastructure icon

Infrastruktur

Erfahren Sie das Neueste von der weltweit führenden Linux-Plattform für Unternehmen

application development icon

Anwendungen

Entdecken Sie unsere Lösungen für komplexe Herausforderungen bei Anwendungen

Original series icon

Original Shows

Interessantes von den Experten, die die Technologien in Unternehmen mitgestalten