AI インフラストラクチャについて

URL をコピー

日常生活において人工知能 (AI) の存在感が増している中、効率的で効果的なワークフローを実現する構造が重要になっています。そこで登場するのが、人工知能インフラストラクチャ (AI インフラストラクチャ) です。 

適切に設計されたインフラストラクチャは、データサイエンティストや開発者によるデータへのアクセス、機械学習アルゴリズムのデプロイ、ハードウェアのコンピューティング・リソースの管理を支援します。

AI インフラストラクチャは、人工知能と機械学習 (AI/ML) テクノロジーを組み合わせ、信頼できるスケーラブルなデータ・ソリューションを開発およびデプロイします。機械学習を実現し、機械が人間のように考えられるようにするテクノロジーです。

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。生成 AI に適用でき、それを可能にしているのがディープラーニングです。ディープラーニングは、大量のデータを分析および解釈するための機械学習の手法です。

Red Hat AI の詳細


AI インフラストラクチャのテクノロジースタック 

テクノロジースタック、略してテックスタックは、ソフトウェア・アプリケーションの構築およびデプロイに使用されるテクノロジー、フレームワーク、ツールのセットです。見かけ上、これらのテクノロジーはそれぞれの上に積み重ねられ (スタック)、アプリケーションを構築します。AI インフラストラクチャのテクノロジースタックにより、3 つの基本レイヤーを通じてアプリケーションの開発とデプロイを迅速化できます。 

エンタープライズにおける AI テクノロジースタックとは

アプリケーション・レイヤーは、人間が機械と連携して、エンドツーエンドのアプリケーションやエンドユーザー向けのアプリケーションなどのツールを活用することを可能にします。エンドユーザー向けのアプリケーションは通常、オープンソース AI フレームワークを使用して構築され、カスタマイズ可能で特定のビジネスニーズに合わせて調整できるモデルを作成します。 

モデルレイヤーは AI 製品が機能するのを支えます。このレイヤーにはデプロイメントをホストするソリューションが必要です。このレイヤーの基盤を提供する 3 つのモデルがあります。

  • 汎用型 AI:人間の脳が思考し意思決定する能力を模倣します。OpenAI の ChatGPT や DALL-E などの AI アプリケーションが該当します。
  • 特化型 AI:特定のデータを使用して正確な結果を生成します。広告コピーや歌詞の生成などのタスクが該当します。
  • ハイパーローカル AI:その分野のスペシャリストとして設計され、最高レベルの精度と関連性を達成できる人工知能。科学記事の執筆や内装デザインのモックアップの作成などが該当します。

インフラストラクチャ・レイヤーは、モデルの構築とトレーニングに必要なハードウェアおよびソフトウェアで構成されます。GPU などの専用プロセッサー (ハードウェア) や最適化およびデプロイツール (ソフトウェア) などのコンポーネントが、このレイヤーに該当します。クラウドコンピューティング・サービスも、インフラストラクチャ・レイヤーの一部です。 

AI インフラストラクチャに含まれる 3 つのレイヤーを説明したので、次に AI モデルの構築、デプロイ、維持に必要なコンポーネントをいくつか見ていきましょう。 

データストレージ

データストレージとは、デジタル情報 (アプリケーション、ネットワークプロトコル、ドキュメント、メディア、アドレス帳、ユーザー設定などを構成する情報) を収集および保持するものです。AI 情報を保存、整理、検索する上で、データストレージは欠かせません。

データ管理

データ管理は、データを収集し、保存し、使用するプロセスで、その実現には多くの場合、データ管理ソフトウェアが使用されます。データ管理により、組織が所持するデータの内容、保存場所、所有者、閲覧権限を持つ人、およびアクセス方法を把握できます。適切に制御および実装されたデータ管理ワークフローがあれば、よりよい意思決定を行うために必要な分析的知見を得ることができます。

最適化ソフトウェア

vLLMllm-d などの最適化ソフトウェアを使用して、ハードウェアを可能な限り効率的に実行できます。

  • vLLM とは、仮想大規模言語モデルの略で、オープンソースコードのライブラリです。大規模言語モデル (LLM) がより効率的かつ大規模に計算を行う上で役立ちます。より具体的には、vLLM は GPU メモリーをより有効に活用することで、生成 AI アプリケーションの出力を高速化する推論サーバーです。
  • llm-d は、大規模な分散推論を高速化する Kubernetes ネイティブのオープンソース・フレームワークです。vLLM の機能を基盤としており、処理を可能な限り迅速かつ効率的に行うためのコーディネーターとして機能します。 

AI 推論とは

機械学習フレームワーク

機械学習 (ML) は人工知能 (AI) のサブカテゴリで、アルゴリズムを使用してパターンを識別し、一連のデータ内で予測を行います。また機械学習のフレームワークは、必要なツールとライブラリを提供します。 

機械学習運用 

機械学習運用 (MLOps) とは、機械学習 (ML) モデルの作成、保守、監視のプロセスを最適化することを目的としたワークフローの一連のプラクティスです。DevOps と GitOps の原則に着想を得た MLOps は、ML モデルをソフトウェア開発プロセスに統合するための、継続的かつ進化し続けるプロセスの確立を目指しています。 

AI/ML 環境の構築の詳細を見る

Red Hat のリソース

確立されたコンポーネントで構成される堅牢な AI インフラストラクチャは、イノベーションと効率性の向上に寄与します。ただし、AI インフラストラクチャの設計にあたっては、考慮すべきメリット、課題、アプリケーションが存在します。 

メリット

AI インフラストラクチャは、AI の運用および組織に複数のメリットをもたらします。メリットの 1 つはスケーラビリティで、特にクラウドベースの AI/ML ソリューションでは、運用をオンデマンドでアップスケールおよびダウンスケールする機会を得られます。もう 1 つのメリットは自動化で、反復作業の減少によりミスが軽減し、成果物のより迅速な提供が可能になります。

Models-as-a-Service とは 

課題

AI インフラストラクチャにはメリットがありますが、いくつかの課題もあります。最大の課題の 1 つが、処理する必要があるデータの量と品質です。AI システムの学習と意思決定には大量のデータが必要であるため、従来のデータストレージおよび処理手法は、AI ワークロードの規模と複雑さを処理するには不十分な可能性があります。もう 1 つの課題は、リアルタイムの分析と意思決定の要件です。この要件は、インフラストラクチャはデータを素早く効率的に処理しなければならないということで、大量のデータを処理する適切なソリューションの統合を考慮に入れる必要があります。

自動化によるメリットの詳細を見る

アプリケーション

これらの課題に対処できるアプリケーションがあります。Red Hat® OpenShift® クラウドサービスを利用すると、アプリケーションをすばやく構築、デプロイ、スケーリングできます。プロアクティブな管理とサポートにより、一貫性とセキュリティを向上させることで効率も向上できます。Red Hat Edge は、データが収集される場所の近くにデプロイし、実用的な知見を取得するための助けになります。

AI/ML 向けのクラウドサービスの詳細を見る

セキュリティ 

AI セキュリティとは、ワークロードを弱体化させたり、データを操作したり、機密情報を盗み出そうとしたりする悪意のある攻撃から AI アプリケーションを保護することです。AI のライフサイクルと技術的なエコシステムにおいては、機密性、完全性、可用性の原則が適用されます。AI システムを保護するには、その仕組みを隅々まで理解することが不可欠です。AI テクノロジーとそのインフラストラクチャに対する理解が深まるほど、より効果的な保護が可能となります。

AI セキュリティの詳細を見る

AI インフラストラクチャについて検討する際は、推論も考慮に入れることが重要です。インフラストラクチャは推論能力に大きな影響を与えます。AI インフラストラクチャの影響を受ける主な要素は次のとおりです。

  • レイテンシー
  • 1 秒あたりに生成されるトークン数
  • 同時ユーザー数
  • コスト

推論をサポートしない AI インフラストラクチャでは、応答時間が長くなったり、レイテンシーがボトルネックになったり、拡張のコストが高くなる可能性があります。つまり AI 戦略の成否は、推論機能をサポートするハードウェアとソフトウェアによって決まることになります。

AI 推論を重視すべき理由

Red Hat AI は、AI 導入の初期段階にある企業から、AI を拡張する準備ができている企業まで、AI 導入のあらゆる段階で役立つ製品およびサービスのプラットフォームです。企業独自のユースケースに応じて、生成 AI および予測型 AI のいずれの取り組みもサポート可能です。

Red Hat AI を使用すると、Red Hat® AI Inference Server にアクセスしてハイブリッドクラウド全体でモデル推論を最適化し、より迅速でコスト効率の高いデプロイメントを実現できます。vLLM を搭載した推論サーバーは、GPU の使用率を最大化し、応答時間を短縮します。

Red Hat AI Inference Server の詳細を見る

Red Hat AI Inference Server には Red Hat AI リポジトリが含まれています。これは、サードパーティによって検証および最適化されたモデルのコレクションであり、モデルの柔軟性を実現し、チーム間の一貫性を促進します。サードパーティのモデルリポジトリにアクセスすることで、企業は市場投入時間を短縮し、AI の成功に対する財務上の障壁を減らすことができます。 

Red Hat AI による検証済みモデルの詳細を見る

Red Hat 公式ブログ

Red Hat のお客様、パートナー、およびコミュニティのエコシステムに関する最新の情報を入手しましょう。

適応力のある企業:AI への対応力が破壊的革新への対応力となる理由

Red Hat の COO 兼 CSO である Michael Ferris (マイケル・フェリス) が執筆したこの e ブックでは、今日の IT リーダーが直面している AI による変化のペースと技術的な破壊的革新について解説しています。

関連情報

医療 AI とは | Red Hat

医療 AI とは、医療に AI 技術を応用することを指します。機械学習でトレーニングされたアルゴリズムが医療の応用、医療の提供、医療の利用の 3 分野で活用されています。

機械学習とは

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。

ディープラーニングとは

ディープラーニングは、人間の脳をヒントに開発されたアルゴリズムを使用してコンピュータにデータを処理する方法を教える人工知能 (AI) 技法です。

AI/MLリソース

関連記事