AI インフラストラクチャについて

URL をコピー

日常生活において人工知能 (AI) の存在感が増している中、効率的で効果的なワークフローを実現する構造が重要になっています。そこで登場するのが、人工知能インフラストラクチャ (AI インフラストラクチャ) です。

適切に設計されたインフラストラクチャは、データサイエンティストや開発者によるデータへのアクセス、機械学習アルゴリズムのデプロイ、ハードウェアのコンピューティング・リソースの管理を支援します。

AI インフラストラクチャは、人工知能と機械学習 (AI/ML) テクノロジーを組み合わせ、信頼できるスケーラブルなデータ・ソリューションを開発およびデプロイします。機械学習を実現し、機械が人間のように考えられるようにするテクノロジーです。

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。生成 AI に適用でき、それを可能にしているのがディープラーニングです。ディープラーニングは、大量のデータを分析および解釈するための機械学習の手法です。

Red Hat AI の詳細


AI インフラストラクチャのテクノロジースタック

テクノロジースタック、略してテックスタックは、ソフトウェア・アプリケーションの構築およびデプロイに使用されるテクノロジー、フレームワーク、ツールのセットです。見かけ上、これらのテクノロジーはそれぞれの上に積み重ねられ (スタック)、アプリケーションを構築します。AI インフラストラクチャのテクノロジースタックにより、3 つの基本レイヤーを通じてアプリケーションの開発とデプロイを迅速化できます。

エンタープライズにおける AI テクノロジースタックとは 

アプリケーション・レイヤーは、人間が機械と連携して、エンドツーエンドのアプリケーションやエンドユーザー向けアプリケーションなどのツールを活用することを可能にします。エンドユーザー向けのアプリケーションは通常、オープンソース AI フレームワークを使用して構築され、カスタマイズ可能で特定のビジネスニーズに合わせて調整できるモデルを作成します。

モデルレイヤーは AI 製品が機能するのを支えます。このレイヤーにはデプロイメントをホストするソリューションが必要です。このレイヤーの基盤を提供する 3 つのモデルがあります。

  • 汎用型 AI:人間の脳が思考し意思決定する能力を模倣します。ChatGPT や OpenAI の DALL-E などの AI アプリケーションが該当します。
  • 特化型 AI:特定のデータを使用して正確な結果を生成します。広告コピーや歌詞の生成などのタスクが該当します。
  • ハイパーローカル AI:その分野のスペシャリストとして設計され、最高レベルの精度と関連性を達成できる人工知能。科学記事の執筆や内装デザインのモックアップの作成などが該当します。

インフラストラクチャ・レイヤーは、モデルの構築とトレーニングに必要なハードウェアおよびソフトウェアで構成されます。GPU などの専用プロセッサー (ハードウェア) や最適化およびデプロイツール (ソフトウェア) などのコンポーネントが、このレイヤーに該当します。クラウド・コンピューティング・サービスも、インフラストラクチャ・レイヤーの一部です。

Red Hat OpenShift AI の詳細

AI インフラストラクチャに含まれる 3 つのレイヤーを説明したので、次に AI モデルの構築、デプロイ、維持に必要なコンポーネントをいくつか見ていきましょう。

データストレージ

データストレージとは、デジタル情報 (アプリケーション、ネットワークプロトコル、ドキュメント、メディア、アドレス帳、ユーザー設定などを構成する情報) を収集および保持するものです。AI 情報を保存、整理、検索する上で、データストレージは欠かせません。

データ管理

データ管理は、データを収集し、保存し、使用するプロセスで、その実現には多くの場合、データ管理ソフトウェアが使用されます。データ管理により、組織が所持するデータの内容、保存場所、所有者、閲覧権限を持つ人、およびアクセス方法を把握できます。適切に制御および実装されたデータ管理ワークフローがあれば、よりよい意思決定を行うために必要な分析的知見を得ることができます。

最適化ソフトウェア

vLLMllm-d などの最適化ソフトウェアを使用して、可能な限り効率的にハードウェアを実行できます。

  • vLLM とは、仮想大規模言語モデルの略で、オープンソースコードのライブラリです。これは、大規模言語モデル (LLM) がより効率的かつ大規模に計算を行う上で役立ちます。さらに重要な点として、vLLM は GPU メモリをより有効に活用することで、生成 AI アプリケーションの出力を高速化する推論サーバーです。
  • llm-d は、分散推論を大規模にスピードアップするための、Kubernetes ネイティブのオープンソース・フレームワークです。llm-d は、vLLM の能力を基盤とし、処理を可能な限り迅速かつ効率的に実行するための調整役として機能します。 

機械学習フレームワーク

機械学習 (ML) は人工知能 (AI) のサブカテゴリで、アルゴリズムを使用してパターンを識別し、一連のデータ内で予測を行います。また機械学習のフレームワークは、必要なツールとライブラリを提供します。

機械学習運用

機械学習運用 (MLOps) とは、機械学習 (ML) モデルの作成、保守、監視のプロセスを最適化することを目的としたワークフローの一連のプラクティスです。DevOps と GitOps の原則に着想を得た MLOps は、ML モデルをソフトウェア開発プロセスに統合するための、継続的かつ進化し続けるプロセスの確立を目指しています。

AI/ML 環境の構築の詳細

Red Hat のリソース

確立されたコンポーネントで構成される堅牢な AI インフラストラクチャは、イノベーションと効率性の向上に寄与します。ただし、AI インフラストラクチャの設計にあたっては、考慮すべきメリット、課題、アプリケーションが存在します。

メリット

AI インフラストラクチャは、AI の運用および組織に複数のメリットをもたらします。メリットの 1 つはスケーラビリティで、特にクラウドベースの AI/ML ソリューションでは、運用をオンデマンドでアップスケールおよびダウンスケールする機会を得られます。もう 1 つのメリットは自動化で、反復作業の減少によりミスが軽減し、成果物のより迅速な提供が可能になります。

MaaS (Models-as-a-Service) とは

課題

AI インフラストラクチャにはメリットがありますが、いくつかの課題もあります。最大の課題の 1 つが、処理する必要があるデータの量と品質です。AI システムの学習と意思決定には大量のデータが必要であるため、従来のデータストレージおよび処理手法は、AI ワークロードの規模と複雑さを処理するには不十分な可能性があります。もう 1 つの課題は、リアルタイムの分析と意思決定の要件です。この要件は、インフラストラクチャはデータを素早く効率的に処理しなければならないということで、大量のデータを処理する適切なソリューションの統合を考慮に入れる必要があります。

自動化によるメリットの詳細

アプリケーション

これらの課題に対処できるアプリケーションがあります。Red Hat® OpenShift® クラウドサービスを利用すると、アプリケーションを素早く構築、デプロイ、スケーリングできます。プロアクティブな管理とサポートにより、一貫性とセキュリティを向上させることで効率も向上できます。Red Hat Edge は、データが収集される場所の近くにデプロイし、実用的な知見を取得するための助けになります。

AI/ML 向けのクラウドサービスについての詳細

セキュリティ

AI セキュリティは、ワークロードの弱体化、データの改ざん、機密情報を盗むことを目的とした悪意ある攻撃からAIアプリケーションを防御します。AI のライフサイクルとテクノロジーのエコシステムに適合した機密性、完全性、可用性の原則を適用できます。AI システムを保護するには、その構造を徹底的に理解することが重要です。AI テクノロジーとそのインフラストラクチャに対する理解が深まるほど、より効果的な保護が可能となります。

AI セキュリティについての詳細 

Red Hat® AI は、Red Hat のお客様の信頼を得ているソリューションに基づいて構築された AI 製品のポートフォリオです。これを基盤として、当社製品の信頼性、柔軟性、拡張性が維持されます。

Red Hat AI のサポートによって以下のことが可能になります。

  • AI を迅速に導入してイノベーションを実現する
  • AI ソリューションの提供における複雑さを解消できる
  • どこにでもデプロイできる

Red Hat AI の詳細 

Red Hat AI パートナー

さらに、当社の AI パートナーエコシステムは成長しています。さまざまなテクノロジーパートナーが Red Hat と連携し、Red Hat AI の運用能力に関する認定を受けています。これにより、選択肢を常にオープンに保つことができます。

Red Hat の AI パートナーを確認する

リソース

エンタープライズ AI を始める:初心者向けガイド

この初心者向けガイドでは、Red Hat OpenShift AI と Red Hat Enterprise Linux AI によって AI 導入をどのように加速できるのかについて説明します。

すべての Red Hat 製品のトライアル

Red Hat の無料トライアルは、Red Hat 製品をハンズオンでお試しいただける無料体験版です。認定の取得に向けた準備をしたり、製品が組織に適しているかどうかを評価したりするのに役立ちます。

関連情報

RAG とファインチューニングの違いとは?をわかりやすく解説

どちらも LLM の改良を目的としていますが、RAG はモデルを変更せずに外部情報を統合するのに対し、ファインチューニングはモデルの内部パラメーターを調整する手法です。

小規模言語モデル (SLM) と大規模言語モデル (LLM) の違いとは?

小規模言語モデル(SLM)は、大規模言語モデル(LLM)よりもパラメーター数が少なく、軽量で効率的に動作するモデルで、専門的な知識を備え、より迅速にカスタマイズできます。

Granite モデルとは?をわかりやすく解説

Graniteモデルとは、IBMがビジネス用途向けに開発した、大規模言語モデル(LLM)のシリーズ。Apache 2.0ライセンスの下で提供されており、無料で使用、修正、配布できます。

AI/MLリソース

関連記事