基盤モデルとは
AI における基盤モデルとは、膨大なデータを用いて自然言語処理、テキストや画像の生成、音声処理などを実行するようにトレーニングされた機械学習 (ML) モデルの一種です。
最近まで、人工知能 (AI) システムは特殊なツールであり、ML モデルのトレーニングは特定のアプリケーションやたった 1 つのユースケースのためのものでした。基盤モデル (ベースモデルとも呼ばれる) という呼称は、機械学習の分野で次のような 2 つの傾向があることに専門家が気付き始めたときに生まれました。
- さまざまなタスクで結果を達成するために、少数のディープラーニング・アーキテクチャが使用されていました。
- 人工知能 (AI) モデルから、トレーニングで当初意図されていなかった新しい概念が生まれることがあります。
基盤モデルは、パターン、構造、表現の一般的な文脈を理解して機能するようにプログラムされています。コミュニケーション方法とパターンの識別方法に関するこの基礎的な理解により、知識のベースラインが作成されます。これをさらに修正したり微調整したりして、ほぼすべての業界の特定領域のタスクを実行させることができます。
基盤モデルの仕組み
基盤モデルを機能させる 2 つの特徴は、転移学習とスケールです。転移学習とは、ある状況に関する情報を別の状況に適用し、その内部の「知識」に基づいて構築するモデルの能力を指します。
スケールとは、ハードウェア、特にグラフィックス・プロセッシング・ユニット (GPU) を指します。これにより、モデルは複数の計算を同時に実行 (並列処理とも言う) できます。GPU は、データを迅速に処理し、複雑な統計計算を行う能力を提供するため、基盤モデルを含むディープラーニング・モデルのトレーニングとデプロイに不可欠です。
ディープラーニングと基盤モデル
多くの基盤モデル、特に自然言語処理 (NLP)、コンピュータビジョン、オーディオ処理で使用されるモデルは、ディープラーニング技術を使用して事前に訓練されます。ディープラーニングは、多くの (すべてではない) 基盤モデルを支えるテクノロジーであり、この分野における多くの進歩の原動力となってきました。ディープラーニングはディープ・ニューラル・ラーニングやディープ・ニューラル・ネットワークとも呼ばれ、観測を通じてコンピュータに学習させるもので、人間が知識を獲得する方法を模しています。
トランスフォーマーと基盤モデル
すべての基盤モデルがトランスフォーマーを使用するわけではありませんが、トランスフォーマー・アーキテクチャは、ChatGPT、BERT、DALL-E 2 など、テキストを含む基盤モデルを構築するための一般的な方法であることが証明されています。トランスフォーマーは、一連のデータにおける要素間の文脈上の関係と依存関係を取り込めるようにすることで、ML モデルの機能を強化します。トランスフォーマーは人工ニューラルネットワーク (ANN) の一種で、NLP モデルに使用されますが、通常、コンピュータビジョン・モデルや音声処理モデルを単独で使用する ML モデルでは利用されません。
基盤モデルのユースケース
基盤モデルのトレーニングが完了すると、膨大なデータプールから得た知識を利用して問題解決に役立てることができます。このスキルは、さまざまな方法で貴重な知見を提供し、組織に貢献することができます。基盤モデルが実行できる一般的なタスクには次のようなものがあります。
自然言語処理 (NLP)
NLP でトレーニングされた基盤モデルは、文脈、文法、言語構造を認識して、トレーニングに使用されたデータから情報を生成し、抽出することができます。テキストをセンチメント (肯定的、否定的、中立的) と関連付けるように訓練することで NLP モデルをさらに微調整すると、顧客のフィードバック、オンラインレビュー、ソーシャルメディア投稿など、文書によるメッセージの分析を検討している企業にとって役立つ可能性があります。NLP の領域は広範で、大規模言語モデル (LLM) の開発と適用が含まれます。
コンピュータビジョン
モデルが基本的な形状と特徴を認識できる場合、パターンを識別できるようになります。コンピュータビジョン・モデルをさらに微調整すると、コンテンツ・モデレーション、顔認識、画像分類の自動化が可能になります。このモデルは、学習したパターンに基づいて新しい画像を生成することもできます。
オーディオ/音声処理
モデルが音声要素を認識できる場合、人間の声から意味を導き出すことができ、より効率的で包括的なコミュニケーションが可能になります。仮想アシスタント、多言語サポート、音声コマンド、文字起こしなどの機能により、アクセシビリティと生産性が向上します。
さらに微調整を行うことで、金融機関向けには不正行為検出、医療向けには遺伝子配列決定、顧客サービス向けにはチャットボットなど、業界特有のニーズへの対応にさらに特化した機械学習システムを設計できます。
基盤モデルの導入が組織にとって有益である理由
基盤モデルは、多くの組織が独自に達成するためのリソースを持たない AI の領域におけるアクセシビリティと高度なレベルを実現します。基盤モデルを導入し、それに基づいて構築することで、組織は次のような一般的な障害を克服できます。
質の高いデータへの限定的なアクセス:基盤モデルは、ほとんどの組織がアクセスできないデータに基づいて構築されたモデルを提供します。
モデルのパフォーマンス/精度:基盤モデルは精度の高いベースラインを提供します。組織が独自にベースラインを構築する場合、数カ月、あるいは数年かかる可能性があります。
価値実現までの時間:機械学習モデルのトレーニングには長い時間がかかり、多くのリソースが必要になります。基盤モデルが事前トレーニングのベースラインを提供するため、組織はそれを微調整して、組織が求める固有の結果を達成できます。
限られた人材:基盤モデルによって、組織はデータサイエンスのリソースに多額の投資をすることなく AI/ML を活用することができます。
経費管理:基盤モデルを使用することで、初期トレーニングに必要な高価なハードウェアの必要性が減少します。最終的なモデルの提供と微調整には依然としてコストがかかりますが、これは基盤モデル自体のトレーニングにかかるコストのほんの一部にすぎません。
組織が基盤モデルを導入する上での課題とは
基盤モデルには興味深い応用例が多数ありますが、注意すべき潜在的な課題も数多くあります。
コスト
基盤モデルの開発、トレーニング、デプロイには多大なリソースが必要です。基盤モデルのトレーニングの初期段階では、膨大な量の汎用データが必要で、数万にも及ぶ GPU を消費し、多くの場合、機械学習エンジニアとデータサイエンティストのグループが必要になります。
解釈可能性
「ブラックボックス」は、AI プログラムがニューラルネットワーク内でタスクを実行し、どのような処理が行われているのかを外部から見ることはできない状態を指します。この状況では、データサイエンティストやアルゴリズムを作成したエンジニアでさえも、モデルが特定の出力にどのようにして至ったかを誰も正確に説明できません。ブラックボックスモデルでは解釈が困難なので、特に医療、刑事司法、金融などの業界では、リスクの高い意思決定に使用すると有害な結論が導かれかねません。このブラックボックス現象は、基盤モデルだけでなく、ニューラルネットワークをベースとするあらゆるモデルで生じる可能性があります。
プライバシーとセキュリティ
基盤モデルは多くの情報にアクセスする必要があり、その中には顧客情報や独自のビジネスデータが含まれる場合もあります。これは、サードパーティ・プロバイダーがモデルをデプロイしたり、モデルにアクセスしたりする場合に特に注意が必要です。
精度と偏り
ディープラーニング・モデルが統計的に偏りのあるデータや母集団を正確に反映しないデータでトレーニングされると、結果が損なわれます。残念なことに、今ある人間の偏見が人工知能に反映されることがよくあり、差別的なアルゴリズムや偏りのある出力を招くリスクを生じさせています。組織では生産性やパフォーマンスの向上に AI を活用しようとし続けていますが、バイアスを最小化するための戦略を適用することが不可欠です。これはインクルーシブデザインのプロセスと、収集したデータ内の代表的な多様性を入念に検討することから始まります。
Red Hat のサポート内容
Red Hat は、基盤モデルのトレーニング、迅速な調整、微調整、提供を可能にする環境など、基礎となるワークロード・インフラストラクチャの提供に重点を置いています。
ハイブリッドクラウドおよびマルチクラウドコンテナ開発プラットフォームのリーダーである Red Hat® OpenShift® によって、データサイエンティストとソフトウェア開発者間のコラボレーションが可能になります。データセンターからネットワークエッジ、マルチクラウドに至るまで、ハイブリッドクラウド環境でのインテリジェント・アプリケーションのロールアウトの速度を上げることができます。
Red Hat OpenShift AI という実証済みの基盤により、オンプレミスまたはクラウドサービス経由で OpenShift のネイティブ GPU アクセラレーション機能を使用して、基盤モデルのトレーニングのためにより安定的に拡張することが可能になります。コンテナ化された機械学習モデルの迅速な開発、トレーニング、テスト、デプロイを実現するためのリソースにアクセスできます。Kubernetes インフラストラクチャの設計やデプロイは必要ありません。
Red Hat Ansible® Lightspeed (および IBM watsonx Code Assistant) は、開発者が Ansible コンテンツをより効率的に作成できるようにする生成 AI サービスです。ユーザーによって入力された平易な英語を読み取り、IBM watsonx 基盤モデルと対話して自動化タスクに推奨するコード情報を生成し、これが Ansible Playbook を作成するために使用されます。Ansible Lightspeed を Red Hat Openshift にデプロイすると、インテリジェントな自動化とオーケストレーションによって Kubernetes の複雑な作業が容易になります。