Granite モデルとは

URL をコピー

Granite は、IBM がエンタープライズ・アプリケーション向けに作成した大規模言語モデル (LLM) シリーズです。Granite 基盤モデルは、言語とコードを使用する生成人工知能 (生成 AI) のユースケースをサポートできます。

Granite ファミリーモデルは Apache 2.0 ライセンスの下で保証されたオープンソースであり、開発者は Granite モデルを無料で試し、修正し、配布することができます。そのため Granite モデルは、機密データを扱う組織や、外部のサービスに依存せずに独自の LLM を実行したいと考えている組織にとって優れた選択肢となります。

Granite と Red Hat の連携

基盤モデルは、言語のパターン、構造、表現に関する一般的な理解を基に機能するようにトレーニングされています。この「基盤となる」トレーニングでは、モデルにそれらのパターンの伝達方法と識別方法を教えます。これを AI 推論と呼びます。AI 推論は AI の運用フェーズであり、モデルはトレーニングで学んだことを現実世界の状況に適用できます。

AI 推論を重視すべき理由 

IBM Granite AI モデルにはベースラインとなる知識が備わっており、これらの知識をさらにファインチューニングすることで、ほぼすべての業界の特定のタスクを実行させることができます。Granite ファミリーモデルは、厳選されたデータに基づいてトレーニングされ、トレーニングに使用されるデータの透明性を提供します。

LLM は、生成 AI を使用して、ユーザーが入力したプロンプトに基づいて新しいコンテンツを生成します。今日では、テキスト、画像、動画、コードの生成に生成 AI がよく使用されています。企業は LLM 基盤モデルを使用して、カスタマーサポートのチャットボットやソフトウェアコードのテストなど、業務のさまざまな側面を自動化できます。

生成 AI を使用する他の LLM 基盤モデルには、Meta の LLaMa (LLaMa 2 と LLaMa 3 を含む)、Google の Gemini、Anthropic の Claude、OpenAI の GPT (ChatGPT ボットで知られる)、Mistral などがあります。しかし、Granite AI モデルは、トレーニングデータを公開している、ユーザーとの信頼関係を構築している、よりエンタープライズ環境に適している、という点で他とは異なります。

Red Hat のリソース

Granite AI モデルシリーズの一部はオープンソースライセンスの下で利用できます。つまり、開発者はモデルに簡単にアクセスし、ローカルで構築することができます。その後は、特定の目標に合わせたモデルのファインチューニングが可能です。さらに、モデルのトレーニングに使用されたデータ (PDF) の大部分にアクセスできるため、モデルがどのように構築されたか、どのように機能するかを理解できます。

Granite モデルの場合、オープンソースとは、開発者が独自のデータを使用してモデルをカスタマイズし、ユーザー固有の出力を生成できることを意味します。あらゆる人の個人データをオープンソース・コミュニティ全体で利用できるということではありません。パブリック Web サービスの AI とは異なり、Granite モデルでは継続的なトレーニングは行われません。したがって、Granite ファミリーモデルに入力されたデータは、Red Hat、IBM、またはその他のいかなる Granite ユーザーとも共有されることはありません。

医療業界や建設業界などの多くの業界で、広範囲にわたる業務の自動化を実現するために Granite をさまざまな方法で活用できます。Granite モデルは要約、質問への回答、分類など、ビジネスドメインのタスク向けにトレーニングできます。その例をいくつかご紹介します。

  • コード生成:Granite コードモデルによって、開発者の作業を基にした構築や改善が可能になり、プロセスが効率化されます。たとえば、開発者はオートコンプリートを利用できます。スマートフォンのオートコンプリートと同じように、開発者が入力を終える前にモデルがコード文を完成させることができます。
  • インサイトの抽出:大規模なデータセットの単純化、要約、または説明が必要な場合、Granite は正確なパターンとインサイトを迅速に特定できます。これにより、大量のデータを調べる手間が省けます。 
  • 柔軟なアーキテクチャ:Granite は既存のシステムと統合でき、オンプレミスにもクラウドにもデプロイできます。インタフェースはデプロイを単純化できるように作られています。Granite ファミリーにはさまざまなサイズのモデルが含まれているため、コンピューティングコストを管理しながらニーズに最適なモデルを選択できます。
  • カスタム・ソリューション:Granite は基盤モデルとして販売されていますが、ビジネス固有の知識に基づいてトレーニングできるように構築されています。ビジネスニーズに合わせてモデルを柔軟に拡張したり、ファインチューニングしたりすることができます。たとえば、医療機器に重点を置く事業の場合は、医療業界で使用される専門用語をモデルに学習させることができます。
  • 低レイテンシー:組織独自のインフラストラクチャ上で Granite モデルを実行できるので、応答時間を短縮するように最適化することができます。このモデルはリアルタイムデータを提供できるため、重要な業務に役立ちます。ここでも医療の例を挙げますが、リアルタイムデータにアクセスできることは、遠く離れた医師と患者の連携や時間的制約のあるケアにとって重要です。Granite モデルを圧縮することで、リソースが少ない場合でも強力なパフォーマンスが得られます。
  • 高精度:開発者は、業界固有のタスクに合わせて Granite シリーズをファインチューニングし、モデルをあらゆる分野の専門家にすることができます。また、世界規模での精度とアクセシビリティを維持するために、複数の言語でトレーニングすることもできます。
  • 透明性のあるモデル:Granite はオープンソースライセンスの下で利用できるため、開発者はこの AI モデルがどのように構築され、トレーニングされたかを確認できるだけでなく、オープンソース・コミュニティと連携することもできます。

Granite モデルは分散推論機能をサポートしています。 

分散推論では、相互接続されたデバイスのグループ全体で推論の労力が分割されるため、AI モデルでワークロードをより効率的に処理できます。分散推論は、物理サーバーやクラウドサーバーなどからなる多数のハードウェアにリクエストを分割する仕組みをサポートします。 

分割後、各推論サーバーは割り当てられた部分を並行して処理し、出力を作成します。これにより、AI を活用した一貫性のあるスケーラブルなサービスを提供する、回復力と可観測性のあるシステムが実現します。llm-d などのフレームワークは、大規模な分散推論をサポートし、組織全体の生成 AI アプリケーションを高速化します。

分散推論が他に何に役立つかを見る 

簡単に言うと、推論を使わない AI は存在しません。 

しかし推論は、巨大化し続けるモデルからの大きなプレッシャーにさらされます。モデルが複雑になるほど、推論の速度は遅くなるのです。

推論を成功させるには、AI モデルが短時間で多くの計算を行うことが必要です。そのため、モデルサイズ、ユーザー数の多さ、レイテンシーなどの要因によってパフォーマンスが制限される可能性があります。モデルがより多くのデータとメモリーを要求する場合、ハードウェアとアクセラレーターがそれに対応していくのは簡単なことではありません。

つまり AI 戦略の成否は、推論機能をサポートするハードウェアとソフトウェアによって決まります。それは、Granite が次のレベルの推論機能に対応するように構築されている理由でもあります。

AI 推論を重視すべき理由 

IBM は、ますます複雑化するエンタープライズ・アプリケーションのニーズを満たすために、複数の Granite モデルシリーズをリリースしています。Granite ファミリー内のモデルシリーズには、さまざまなカテゴリと命名規則があります。

各シリーズの目的は、次のようにそれぞれ異なります。

  • Granite 言語モデル:低レイテンシーを維持するとともに、複数の言語での正確な自然言語処理 (NLP) を実現します。 

    生成 AI のユースケースを見る

  • Granite コードモデル:エンタープライズレベルのソフトウェアタスクをサポートできるように、100 を超えるさまざまなプログラミング言語でトレーニングされています。
  • Granite 時系列モデル:時系列予測 (過去のデータを使用して将来のデータを予測する手法) 用にファインチューニングされています。
  • Granite 地理空間データモデル:IBM と NASA が作成した基盤モデルで、大規模な衛星データ収集によって地球を観察し、環境変化の追跡とその変化への対処に役立てることができます。

    予測型 AI のユースケースの詳細

これらの各シリーズにおいて、Granite はサイズや特長の異なるさまざまなモデルを提供しています。たとえば、Granite 言語モデルに含まれるものは次のとおりです。

  • Granite-7b-base:会話やチャットを目的とした汎用言語モデル
  • Granite-7b-instruct:タスクの指示に従うことに特化

Hugging Face で Granite モデルを探索

Red Hat® AI は、AI 導入の初期段階にある企業から、AI を拡張する準備ができている企業まで、AI 導入のあらゆる段階で役立つ製品およびサービスのプラットフォームです。企業独自のユースケースに応じて、生成 AI および予測型 AI のいずれの取り組みもサポート可能です。

Red Hat AI を使用すると、Red Hat® AI Inference Server にアクセスしてハイブリッドクラウド全体でモデル推論を最適化し、より迅速でコスト効率の高いデプロイメントを実現できます。vLLM を搭載した推論サーバーは、GPU の使用率を最大化し、応答時間を短縮します。

Red Hat AI Inference Server の詳細を見る

Red Hat AI Inference Server には Red Hat AI リポジトリが含まれています。これは、サードパーティによって検証および最適化されたモデルのコレクションであり、モデルの柔軟性を実現し、チーム間の一貫性を促進します。サードパーティのモデルリポジトリにアクセスすることで、企業は市場投入時間を短縮し、AI の成功に対する財務上の障壁を減らすことができます。 

Red Hat AI による検証済みモデルの詳細を見る

 

Red Hat 公式ブログ

Red Hat のお客様、パートナー、およびコミュニティのエコシステムに関する最新の情報を入手しましょう。

すべての Red Hat 製品のトライアル

Red Hat の無料トライアルは、Red Hat 製品をハンズオンでお試しいただける無料体験版です。認定の取得に向けた準備をしたり、製品が組織に適しているかどうかを評価したりするのに役立ちます。

関連情報

MLOps とは?をわかりやすく解説

MLOps(エムエルオプス)とは、機械学習(ML)モデルのデプロイと保守のプロセス最適化を目的とし、機械学習モデルの運用ライフサイクル全体を自動化し、効率化する手法です。

AI 推論とは?をわかりやすく解説

AI 推論は、生成 AI の中核をなし、学習済みのAI モデルが未知の入力データに対して予測や判断を行い、モデルが目的の出力を提供する機械学習プロセスの最終ステップです。

エンタープライズ AI とは?をわかりやすく解説

エンタープライズAIとは、各種のビジネス機能強化や業務の効率化に向けて、人工知能と機械学習を活用したテクノロジーや手法を大規模な運用やプロセスに統合することです。

AI/MLリソース

関連記事