セクションを選択

Kubernetes が AI/ML を支援する方法

URL をコピー

AI で IT 自動化を加速

Red Hat® Ansible® Lightspeed が IBM Watsonx Code Assistant を使用し、自然言語のプロンプトを通じて自動化のアイデアを Red Hat Ansible Automation Platform のコードに変換できるよう、ユーザーをどのように支援するかについて、この e ブックでご確認ください。

 

Kubernetes は、コードを多様な環境で一貫して再現可能で、可搬性があり、拡張性に優れたものにすることで、AI/ML のワークロードを支援することができます。

機械学習対応アプリケーションを構築する場合、ワークフローは直線的ではなく、チームが継続的インテグレーション/継続的デリバリー (CI/CD) に取り組む中で、研究、開発、プロダクションの各段階は絶え間なく動き続けます。新しいデータ、アルゴリズム、アプリケーションのバージョンを構築、テスト、統合およびデプロイするプロセスでは、あらゆることが動き続け、管理も簡単ではありません。そこで役立つのがコンテナです。

Linux のテクノロジーであるコンテナでは、実行に必要なすべてのライブラリや依存関係とともにアプリケーションをパッケージ化して分離することができます。コンテナはオペレーティングシステム全体を必要とせず、動作に必要なコンポーネントだけを必要とするため、軽量で可搬性があります。これによって、運用面ではデプロイメントが容易になり、開発者は異なるプラットフォームやオペレーティングシステム上でもまったく同じようにアプリケーションが動作するという確信を得ることがでます。

その他のメリットとして、コンテナを使用すると責任範囲を分離できるため、開発チームと運用チーム間の対立が少なくなります。また、開発者がアプリケーションに集中し、運用チームがインフラストラクチャに集中できるようになれば、アプリケーションのライフサイクル全体で成長と進化に合わせて新しいコードを統合することが、よりシームレスで効率的になります。

Kubernetes は、コンテナ化されたアプリケーションのデプロイとスケーリングに伴う多くの手動プロセスを排除することで、Linux コンテナ運用を自動化するオープンソース・プラットフォームです。Kubernetes は機械学習のライフサイクルの最適化にとって重要です。このテクノロジーにより、データサイエンティストが ML モデルをトレーニング、テスト、デプロイするためのアジリティ、柔軟性、可搬性、スケーラビリティが得られるからです。

スケーラブル:Kubernetes により、ユーザーは必要に応じて ML ワークロードをスケールアップまたはスケールダウンできます。このため、プロジェクトの他の要素を妨害することなく、機械学習パイプラインで大規模な処理およびトレーニングに対応できます。 

効率:Kubernetes は、可用性と容量に基づいてワークロードをノードにスケジュールすることで、リソース割り当てを最適化します。コンピューティング・リソースを意図的に使用することで、ユーザーはコスト削減とパフォーマンス向上を期待できます。

可搬性:Kubernetes はプラットフォームに依存しない標準化された環境を提供するので、データサイエンティストは 1 つの ML モデルを開発して複数の環境とクラウド・プラットフォームにデプロイできます。互換性の問題やベンダーロックインを気にする必要はありません。

フォールトトレランス:組み込みのフォールトトレランスおよび自己修復機能により、ハードウェアやソフトウェアに障害が発生しても ML パイプラインの稼働を継続できるという信頼感を Kubernetes に持つことができます。

 

 

機械学習のライフサイクルは多くの異なる要素で構成されており、別々に管理すれば、運用と維持に多大な時間とリソースを要することになります。Kubernetes アーキテクチャにより、組織は ML のライフサイクルの一部を自動化することができ、手作業による介入の必要性を排除し、効率性を高めることができます。 

Kubeflow のようなツールキットを実装することで、Kubernetes で開発者が学習済み ML ワークロードを最適化して提供できるようになります。Kubeflow は、ML モデルのトレーニングや 広範にわたるデプロイを単純化する一連のツールと API を提供することで、機械学習パイプラインのオーケストレーションに関わる多数の課題を解決します。Kubeflow はまた、機械学習運用 (MLOps) の標準化と整理にも役立ちます。

 

業界をリードする Kubernetes ベースのハイブリッドクラウド・アプリケーション・プラットフォームとして、Red Hat® OpenShift® は、パブリッククラウド、オンプレミスのハイブリッドクラウド、またはエッジ・アーキテクチャで一貫したエクスペリエンスを提供しながら、テスト済みの信頼できるサービスを統合します。

OpenShift AI ポートフォリオの一部である Red Hat OpenShift Data Science は Red Hat OpenShift へのサービスで、データサイエンティストと開発者に対し、インテリジェント・アプリケーションを構築するための一貫性のある強力な人工知能および機械学習 (AI/ML) プラットフォームを提供します。コアモデルの構築と実験に加え、OpenShift Data Science はモデルの提供とモニタリングを含む MLOps 機能を提供するため、モデルをより迅速にプロダクションに移行できます。

 

関連資料

記事

クラウド管理とは

クラウド管理のさまざまな側面と、クラウド管理プラットフォームが企業にもたらすメリットについて説明します。

記事

マネージド IT サービスとは

マネージドサービスは、コストを削減し、サービス品質を向上させ、社内チームが組織のビジネスに特有の作業を行えるようにするために、一般的なタスクを専門家に任せる手法です。

記事

クラウド構築に Red Hat を選ぶ理由

オープンソース・テクノロジーでサポートされた Red Hat のオープン・ハイブリッドクラウド戦略は、パブリッククラウド、プライベートクラウド、ハイブリッドクラウド、マルチクラウドなど、あらゆる形態のクラウドのための一貫した基盤を提供します。

クラウド・コンピューティングの詳細はこちら

製品

ハードウェアを仮想化し、リソースをクラウドにまとめるプラットフォーム。

エンタープライズ対応の Kubernetes コンテナ・プラットフォームで、ハイブリッドクラウド、マルチクラウド、エッジのデプロイメントを管理するフルスタックの自動運用機能を備えています。

Red Hat の戦略的アドバイザーが、企業組織の全体像を把握しながら課題を分析し、包括的かつコスト効率に優れたソリューションで課題を解決できるようお手伝いします。

リソース

トレーニング

無料のトレーニングコース

Red Hat OpenStack Technical Overview