Red Hat OpenShift AI の最新リリースでAIのスケールと適応性を強化

Red Hat OpenShift AI 2.15がパフォーマンスの向上と合理化されたワークフローを実現し、 大規模なAIイノベーションを促進

東京 -

[ソルトレイクシティ-KUBECON + CLOUDNATIVECON NA - 2024年11月12日(現地時間)発表] アメリカ報道発表資料抄訳

オープンソース・ソリューションのプロバイダーとして世界をリードするRed Hat, Inc.(以下、Red Hat)は本日、Red Hat OpenShift AIの最新バージョンを発表しました。これは、Red Hat OpenShift上に構築された人工知能(AI)および機械学習(ML)プラットフォームであり、企業がハイブリッドクラウド全体でAI対応アプリケーションを大規模に作成および提供できるようにするものです。Red Hat OpenShift AI 2.15は、より高度な柔軟性、チューニング、追跡機能を提供するように設計されています。これによって、企業のAI/MLイノベーションと運用の一貫性が加速し、より規則性が高く強固なセキュリティ体制をパブリッククラウド、データセンターからエッジ環境全体に至るまで、大規模に提供できるようになります。

Icon-Red_Hat-Media_and_documents-Quotemark_Open-B-Red-RGB

Red Hat OpenShift AIの最新バージョンは、包括的なモデル・ライフサイクルの基盤として機能しながら、スケーラビリティ、パフォーマンス、運用効率を大幅に向上させます。そのため、IT企業が強力なAIプラットフォームのメリットを活用しながら、それぞれのビジネスニーズに応じた環境で構築、デプロイ、実行する能力を維持できるようにします。

Joe Fernandes(ジョー・フェルナンデス)

Red Hat  AI事業部バイスプレジデント兼ゼネラルマネージャー

IDC によると、Forbes Global 2000 に含まれる企業は、コア IT 支出の 40% 以上を AI イニシアチブに割り当てる予定です1。また、2026 年までに、企業が生成AI(gen AI) と自動化テクノロジーを活用して、1 兆ドルの生産性向上を実現することも予測しています2。Red Hatは、このようなレベルの投資には、モデルのライフサイクルを管理してgen AIアプリケーションを構築するAI/ML プラットフォームが必要であると考えています。また、AI/ML プラットフォームには、ハイブリッドクラウド全体で従来のワークロードやアプリケーションと並行して実行できる柔軟性も必要です。

Red Hat OpenShift AI 2.15は、企業がAIワークロードの新たなニーズに応えると同時に、現在のビジネスを支えるミッションクリティカルなクラウドネイティブ・アプリケーションにも対処することを目的として設計されています。Red Hat OpenShift AIの最新バージョンで提供される高度な機能には次のものが含まれています。

  • モデルレジストリは、現在テクノロジープレビューとして提供されており、登録されたモデルを表示および管理する中心的な場所です。レジストリは、予測型gen AIモデル、メタデータ、モデルアーティファクトの共有、バージョン管理、デプロイ、追跡するための構造化および組織化された方を提供します。また、Red Hat はモデル・レジストリー・プロジェクトをサブプロジェクトとして Kubeflow コミュニティに寄付しています。
  • データドリフト検出は、デプロイされたMLモデルの入力データ分布の変化を監視します。この機能より、データサイエンティストは、モデルの干渉に使用されるライブデータが、モデルのトレーニングに使用されたデータから大幅に逸脱した際に検出できます。ドリフト検出は、入力データを継続的に監視し、モデルを実際のデータと一致させて、長期にわたり予測精度を維持することで、モデルの信頼性を検証するのに役立ちます。
  • バイアス検出ツールは、モデルが公正で偏りがないかどうかを監視するのに役立ちます。このことは、モデルの信頼性を確立するうえで重要な部分です。このツールは、トレーニングデータに基づいてモデルに偏りがないか洞察するだけでなく、実際のデプロイ中にモデルが公正であるかを監視するのにも役立ちます。バイアス検出ツールは、責任あるAI開発とデプロイのための多様なツールキットを提供する、TrustyAIオープンソースコミュニティから組み込まれています。
  • LoRAによる効率的な微調整では、低ランクアダプター(LoRA)を使用してLlama 3などのLLMのより効率的な微調整を可能にします。これにより、企業はコストとリソース消費を削減しながら、AIワークロードを拡張することができます。クラウドネイティブ環境内でモデルのトレーニングと微調整を最適化することで、このソリューションはパフォーマンスと柔軟性の両方を強化し、AI導入をよりアクセスしやすくスケーラブルなものにします。
  • NVIDIA NIMのサポートは、gen AI アプリケーションの提供を促進する、使いやすいインターフェイスのマイクロサービスのセットです。 NVIDIA AI Enterpriseソフトウェアプラットフォームの一部であるNIMとの統合によって、アプリケーションプログラミングインターフェース(API)を通じて、オンプレミスまたはクラウドでスケーラブルな推論を提供する幅広いAIモデルをサポートすると同時に、gen AIの導入をスピードアップします。
  • AMD GPUのサポートによって、モデル開発にAMD GPUを使用するためのAMD ROCmワークベンチ・イメージにアクセスできるようになります。また、この新機能により、AMD GPUを活用したサービング、トレーニング、そしてチューニングに使用できるイメージにもアクセスできます。このサポートによって、企業はGPUによって計算集約型のアクティビティのパフォーマンスを向上させるための追加オプションを利用できます。

モデルサービングの強化

包括的なAI/MLプラットフォームであるRed Hat OpenShift AI 2.15には、KServe用のvLLMサービングランタイムなど、gen AIモデルサービングに関する新機能も追加されています。この新機能により、大規模言語モデル (LLM) 向けの人気の高いオープンソースモデル提供ランタイムがプラットフォームにもたらされます。vLLMの柔軟性と性能は、現在サポートされているプラットフォームのランタイムに対する優れた追加要素であり、ユーザーはビジネス要件に応じて独自のカスタムオプションを追加することもできます。

また、Red Hat OpenShift AIの最新バージョンには、KServeモデルカーのサポートとしてコンテナ化されたモデルバージョンを保存・共有するためのオプションである、Open Container Initiative(OCI)リポジトリが追加されています。さらに、KServeにおけるエンドポイントのプライベート/パブリックルート選択により、企業は必要に応じて内部エンドポイントに特別に誘導することで、モデルのセキュリティ体制を強化できます。

AI のトレーニングと実験のオプションを拡張

Red Hat OpenShift AI 2.15は、データサイエンス・パイプラインと実験のトラッキングが強化されており、データサイエンティストは論理構造にグループ化されたパイプラインの実行を、より簡単に管理、比較、分析できるようになります。また、このプラットフォームはRay Tuneのハイパーパラメータチューニングや、予測モデルや Gen AIモデルをより効率的にトレーニングするため精度を向上させた高度な最適化アルゴリズムが追加されています。現在、Rayクラスタ用のベースコンテナイメージがRed Hat OpenShift AIの最新バージョンに含まれるようになり、トレーニングおよびチューニングジョブをクラスタ内の分散ワークロードにまたがってスケジューリングすることでジョブを高速化し、ノードの使用率が最大化できるようになっています。

ご利用について

Red Hat OpenShift 2.15は、2024年11月中旬から一般提供される予定です。追加機能、改善点、バグ修正、最新バージョンへのアップグレード方法の詳細については、こちらをご覧ください。

サポートコメント

Red Hat  AI事業部バイスプレジデント兼ゼネラルマネージャー  Joe Fernandes(ジョー・フェルナンデス)
「企業がAI対応アプリケーションやワークロードが提供する新機能について模索しているなか、戦略が具体化するにつれて、基盤となるプラットフォームに対する関心や需要が高まることが予想されています。ハイブリッドクラウドのどこにデータがあっても実行可能で、信頼性が高く、スケーラブルで柔軟なAIプラットフォームによって投資に対するリターンを得ることが、企業にとって極めて重要になっています。Red Hat OpenShift AIの最新バージョンは、包括的なモデル・ライフサイクルの基盤として機能しながら、スケーラビリティ、パフォーマンス、運用効率を大幅に向上させます。そのため、IT企業が強力なAIプラットフォームのメリットを活用しながら、それぞれのビジネスニーズに応じた環境で構築、デプロイ、実行する能力を維持できるようにします」

NVIDIA エンタープライズAIソフトウェア担当バイスプレジデント Justin Boitano(ジャスティン・ボイタノ)氏
「企業は、AIアプリケーションを迅速に導入するための合理化されたソリューションを求めています。NVIDIA NIMとRed Hat OpenShift AI 2.15の統合によって、ハイブリッドクラウド環境全体でのフルスタックのパフォーマンスとスケーラビリティが強化され、開発チームとITチームはgen AIの導入を効率的かつ安全に管理し、加速できるようになります」

1 出典:IDC FutureScape Webcast:世界の人工知能と自動化に関する2024年時点の予測(#US51901124)、2024年3月

2 出典:IDC FutureScape:世界の仕事の未来に関する2024年時点の予測(#US49963723)、2023年

その他のリソース

その他のリンク

本件に関するお問い合わせ

  • レッドハット株式会社 広報担当 pr-jp@redhat.com TEL:03-4590-7472
  • Red Hatについて
  • エンタープライズ向けオープンソースソフトウェア・ソリューションのプロバイダーとして世界をリードするRed Hatは、コミュニティとの協業により高い信頼性と性能を備えるLinux、ハイブリッドクラウド、コンテナ、Kubernetesなどのテクノロジーを提供しています。お客様の新規および既存のITアプリケーションの統合、クラウドネイティブ・アプリケーションの開発、業界をリードする当社のオペレーティング・システムによる標準化、および複雑な環境の自動化/セキュリティ確保/管理をお手伝いします。受賞歴を誇るサポート、トレーニング、およびコンサルティング・サービスにより、Red Hatはフォーチュン500企業に対する信頼すべきアドバイザリーとなっています。クラウドプロバイダー、システムインテグレーター、アプリケーションベンダー、お客様、およびオープンソース・コミュニティの戦略的パートナーとして、デジタルの未来に備えるための準備を支援します。



  • FORWARD-LOOKING STATEMENTS
  • ここに記載されている過去の事実に関する情報および討議を除き、本プレスリリースに含まれる表現は、1995年米国民事証券訴訟改革法(Private Securities Litigation Reform Act of 1995)が定める定義の範囲内で「将来の見通しに関する声明」に相当する場合があります。将来の見通しに関する声明は、将来の事業および業績に関する当社の現時点での仮定に基づいています。これらの声明には、様々なリスク、不確実性、その他の要因が含まれており、実際の結果は、そうした将来の見通しに関する声明で示されたものと実質的に異なる場合があります。このプレスリリースに掲載されている将来の見通しに関する声明は、その発行日時点の当社の見解を示したものです。法令により義務付けられる場合を除き、当社は、将来の見通しに関する声明を更新または訂正する義務を一切負いません。

    ###

    Red Hat、Red Hat Enterprise Linux、Red Hatロゴ、JBoss、Ansible、Ceph、CloudForms、Gluster、OpenShiftは、米国およびその他の国におけるRed Hat, Inc.およびその子会社の商標または登録商標です。Linux®は、米国およびその他の国におけるLinus Torvaldsの登録商標です。OpenStack ワードマークは、米国およびその他の国におけるOpenStack Foundationの登録商標/サービスマークまたは商標/サービスマークであり、OpenStack Foundationの許可を得て使用されています。Red Hatは OpenStack Foundation や OpenStack コミュニティとは提携しておらず、承認も後援も受けていません。