AI の基盤モデルとは

URL をコピー

基盤モデルは、さまざまなタスクを実行するように訓練された機械学習 (ML) モデルの一種です。 

最近まで、人工知能 (AI) システムは特殊なツールであり、ML モデルのトレーニングは特定のアプリケーションやたった 1 つのユースケースのためのものでした。基盤モデル (ベースモデルとも呼ばれる) という呼称は、機械学習の分野で次のような 2 つの傾向があることに専門家が気付き始めたときに生まれました。

  1. さまざまなタスクで結果を達成するために、少数のディープラーニング・アーキテクチャが使用されていました。
  2. 人工知能 (AI) モデルから、トレーニングで当初意図されていなかった新しい概念が生まれることがあります。 

IBM の Granite モデルなどの基盤モデルは、パターン、構造、表現の一般的な文脈を理解して機能するようにプログラムされています。コミュニケーション方法とパターンの識別方法に関するこの基礎的な理解により、知識のベースラインが作成されます。これをさらに修正したり微調整したりして、ほぼすべての業界の特定領域のタスクを実行させることができます。

Red Hat AI の詳細

ハイブリッドクラウドにおける AI モデルのためのオープン・プラットフォーム

基盤モデルを機能させる 2 つの特徴は、転移学習とスケールです。 転移学習とは、ある状況に関する情報を別の状況に適用し、その内部の「知識」に基づいて構築するモデルの能力を指します。 

 スケールとは、ハードウェア、特にグラフィックス・プロセッシング・ユニット (GPU) を指します。これにより、モデルは複数の計算を同時に実行 (並列処理とも言う) できます。GPU は、データを迅速に処理し、複雑な統計計算を行う能力を提供するため、基盤モデルを含むディープラーニング・モデルのトレーニングとデプロイに不可欠です。

ディープラーニングと基盤モデル
多くの基盤モデル、特に自然言語処理 (NLP)、コンピュータビジョン、オーディオ処理で使用されるモデルは、ディープラーニング技術を使用して事前に訓練されます。ディープラーニングは、多くの (すべてではない) 基盤モデルを支えるテクノロジーであり、この分野における多くの進歩の原動力となってきました。ディープラーニングはディープ・ニューラル・ラーニングやディープ・ニューラル・ネットワークとも呼ばれ、観測を通じてコンピュータに学習させるもので、人間が知識を獲得する方法を模しています。 

トランスフォーマーと基盤モデル
すべての基盤モデルがトランスフォーマーを使用するわけではありませんが、トランスフォーマー・アーキテクチャは、ChatGPT、BERT、DALL-E 2 など、テキストを含む基盤モデルを構築する一般的な方法となっています。  トランスフォーマーは、ML モデルが一連のデータにおける要素間の文脈上の関係と依存関係を捉えることができるようにすることで、ML モデルの機能を強化します。トランスフォーマーは人工ニューラル・ネットワーク (ANN) の一種で、NLP モデルに使用されますが、通常、コンピュータビジョン・モデルや音声処理モデルを単独で使用する ML モデルでは利用されません。

Red Hat のリソース

基盤モデルのトレーニングが完了すると、膨大なデータプールから得た知識を利用して問題解決に役立てることができます。このスキルは、さまざまな方法で貴重な知見を提供し、組織に貢献することができます。基盤モデルが実行できる一般的なタスクには次のようなものがあります。

自然言語処理 (NLP)
NLP でトレーニングされた基盤モデルは、文脈、文法、言語構造を認識して、トレーニングに使用されたデータから情報を生成し、抽出することができます。テキストをセンチメント (肯定的、否定的、中立的) と関連付けるように訓練することで NLP モデルをさらにファインチューニングすると、顧客のフィードバック、オンラインレビュー、ソーシャルメディア投稿など、文書によるメッセージの分析を検討している企業にとって役立つ可能性があります。NLP の領域は広範で、大規模言語モデル (LLM) の開発と適用が含まれます。

コンピュータビジョン
モデルが基本的な形状と特徴を認識できる場合、パターンを識別できるようになります。コンピュータビジョン・モデルをさらにファインチューニングすると、コンテンツ・モデレーション、顔認識、画像分類の自動化が可能になります。このモデルは、学習したパターンに基づいて新しい画像を生成することもできます。 

オーディオ/音声処理
モデルが音声要素を認識できる場合、人間の声から意味を導き出すことができ、より効率的で包括的なコミュニケーションが可能になります。仮想アシスタント、多言語サポート、音声コマンド、文字起こしなどの機能により、アクセシビリティと生産性が向上します。 

さらにファインチューニングを行うことで、金融機関向けには不正行為検出、医療向けには遺伝子配列決定、顧客サービス向けにはチャットボットなど、業界特有のニーズへの対応にさらに特化した機械学習システムを設計できます。

基盤モデルは、多くの組織が独自に達成するためのリソースを持たない AI の領域におけるアクセシビリティと高度なレベルを実現します。基盤モデルを導入し、それに基づいて構築することで、組織は次のような一般的な障害を克服できます。

質の高いデータへの限定的なアクセス:基盤モデルは、ほとんどの組織がアクセスできないデータに基づいて構築されたモデルを提供します。

モデルのパフォーマンス/精度:基盤モデルは精度の高いベースラインを提供します。組織が独自にベースラインを構築する場合、数カ月、あるいは数年かかる可能性があります。 

価値実現までの時間:機械学習モデルのトレーニングには長い時間がかかり、多くのリソースが必要になります。基盤モデルが事前トレーニングのベースラインを提供するため、組織はそれをファインチューニングして、組織が求める固有の結果を達成できます。 

限られた人材:基盤モデルによって、組織はデータサイエンスのリソースに多額の投資をすることなく AI/ML を活用することができます。 

経費管理:基盤モデルを使用することで、初期トレーニングに必要な高価なハードウェアの必要性が減少します。最終的なモデルの提供とファインチューニングには依然としてコストがかかりますが、これは基盤モデル自体のトレーニングにかかるコストのほんの一部にすぎません。

エンタープライズで AI が機能する仕組みの詳細はこちら

基盤モデルには興味深い応用例が多数ありますが、注意すべき潜在的な課題も数多くあります。

コスト
基盤モデルの開発、トレーニング、デプロイには多大なリソースが必要です。基盤モデルのトレーニングの初期段階では、膨大な量の汎用データが必要で、数万にも及ぶ GPU を消費し、多くの場合、機械学習エンジニアとデータサイエンティストのグループが必要になります。 

Models-as-a-Service (MaaS) を使用すると、モデルをゼロからトレーニングする手間を省くことができます。モデルをライブアプリケーションで使用するには、vLLM などの推論サーバーを利用できます。vLLM は、大規模かつ効率的な推論機能を提供するため、開発者はハードウェアから潜在的なパフォーマンスを最大限に引き出すことができます。 

パラメーターが数十億に及ぶ大規模な基盤モデルの場合、分散推論llm-d などの手法を使用すると、さらに効率性が向上し、リソースを節約できる可能性があります。 

解釈可能性
「ブラックボックス」は、AI プログラムがニューラルネットワーク内でタスクを実行し、どのような処理が行われているのかを外部から見ることはできない状態を指します。この状況では、データサイエンティストやアルゴリズムを作成したエンジニアでさえも、モデルが特定の出力にどのようにして至ったかを誰も正確に説明できません。ブラックボックスモデルでは解釈が困難なので、特に医療、刑事司法、金融などの業界では、リスクの高い意思決定に使用すると有害な結論が導かれかねません。このブラックボックス現象は、基盤モデルだけでなく、ニューラルネットワークをベースとするあらゆるモデルで生じる可能性があります。 

プライバシーとセキュリティ
基盤モデルは多くの情報にアクセスする必要があり、その中には顧客情報や独自のビジネスデータが含まれる場合もあります。これは、サードパーティ・プロバイダーがモデルをデプロイしたり、モデルにアクセスしたりする場合に特に注意が必要です。

AI セキュリティについてさらに詳しく

精度と偏り
ディープラーニング・モデルが統計的に偏りのあるデータや母集団を正確に反映しないデータでトレーニングされると、結果が損なわれます。残念なことに、今ある人間の偏見が人工知能に反映されることがよくあり、差別的なアルゴリズムや偏りのある出力を招くリスクを生じさせています。組織では生産性やパフォーマンスの向上に AI を活用しようとし続けていますが、偏りを最小化するための戦略を適用することが不可欠です。これはインクルーシブデザインのプロセスと、収集したデータ内の代表的な多様性を入念に検討することから始まります。 

モデルがモデルコンテキストプロトコル (MCP) を介して外部データにアクセスし、使用するように標準化することで、モデルの出力の精度を向上させることができます。モデルと外部ドキュメント (会社の社内文書やリアルタイム API など) との間の構造化された通信フローを作成することで、出力の追跡、検証、バイアススクリーニングが可能になります。MCP で標準化されたインタフェースを作成することで、新しいデータソースが導入された際の検索拡張生成 (RAG) システムの拡張と保守も容易になります。 

Red Hat AI で AI を運用化

Red Hat® AI は、Red Hat のお客様の信頼を得ているソリューションに基づいて構築された AI 製品のポートフォリオです。 

Red Hat AI のサポートによって以下のことが可能になります。

  • AI を迅速に導入してイノベーションを実現する
  • AI ソリューションの提供における複雑さを解消できる
  • どこにでもデプロイできる

Red Hat AI の詳細

IBM の Granite ファミリーモデルに簡単にアクセス

基盤モデルを試験的に導入してみたいと考えてはいるものの、ビジネスユースケースがまだ明確でないというお客様には、Red Hat® Enterprise Linux® AI から始めることをお勧めします。Red Hat Enterprise Linux は、個々のサーバー環境で LLM を実行するためのプラットフォームです。このソリューションには Red Hat AI Inference Server が含まれます。スループットを最大化し、レイテンシーを最小限に抑えることで、ハイブリッドクラウド全体で高速かつコスト効率の高い推論を実現します。

このプラットフォームを通じて、開発者は LLM と AI のツールを備えた単一のサーバー環境にすばやくアクセスできます。また、モデルを調整して生成 AI アプリケーションを構築するために必要なものがすべて揃っています。

Red Hat Enterprise Linux AI の詳細

ブログ投稿

戦略の主権をどの程度保持していますか?Red Hat Sovereignity Readiness Assessment ツールの概要

Red Hat Sovereignty Readiness Assessment ツールは、Web ベースのセルフサービス評価ツールであり、7 つの重要ドメインにわたる組織のデジタル管理についての明確で客観的なベースラインを提供します。

すべての Red Hat 製品のトライアル

Red Hat の無料トライアルは、Red Hat 製品をハンズオンでお試しいただける無料体験版です。認定の取得に向けた準備をしたり、製品が組織に適しているかどうかを評価したりするのに役立ちます。

関連情報

医療 AI とは | Red Hat

医療 AI とは、医療に AI 技術を応用することを指します。機械学習でトレーニングされたアルゴリズムが医療の応用、医療の提供、医療の利用の 3 分野で活用されています。

機械学習とは

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。

ディープラーニングとは

ディープラーニングは、人間の脳をヒントに開発されたアルゴリズムを使用してコンピュータにデータを処理する方法を教える人工知能 (AI) 技法です。

AI/MLリソース

関連記事