AI インフラストラクチャとは
日常生活において人工知能 (AI) の存在感が増している中、効率的で効果的なワークフローを実現する構造が重要になっています。そこで登場するのが、人工知能インフラストラクチャ (AI インフラストラクチャ) です。
適切に設計されたインフラストラクチャは、データサイエンティストや開発者によるデータへのアクセス、機械学習アルゴリズムのデプロイ、ハードウェアのコンピューティング・リソースの管理を支援します。
AI インフラストラクチャは、人工知能と機械学習 (AI/ML) テクノロジーを組み合わせ、信頼できるスケーラブルなデータ・ソリューションを開発およびデプロイします。機械学習を実現し、機械が人間のように考えられるようにするテクノロジーです。
機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。生成 AI に適用でき、それを可能にしているのがディープラーニングです。ディープラーニングは、大量のデータを分析および解釈するための機械学習の手法です。
AI インフラストラクチャのテクノロジースタック
テクノロジースタック、略してテックスタックは、ソフトウェア・アプリケーションの構築およびデプロイに使用されるテクノロジー、フレームワーク、ツールのセットです。見かけ上、これらのテクノロジーはそれぞれの上に積み重ねられ (スタック)、アプリケーションを構築します。AI インフラストラクチャのテクノロジースタックにより、3 つの基本レイヤーを通じてアプリケーションの開発とデプロイを迅速化できます。
アプリケーション・レイヤーは、人間が機械と連携して、エンドツーエンドのアプリケーションやエンドユーザー向けアプリケーションなどのツールを活用することを可能にします。エンドユーザー向けのアプリケーションは通常、オープンソース AI フレームワークを使用して構築され、カスタマイズ可能で特定のビジネスニーズに合わせて調整できるモデルを作成します。
モデルレイヤーは AI 製品が機能するのを支えます。このレイヤーにはデプロイメントをホストするソリューションが必要です。このレイヤーの基盤を提供する 3 つのモデルがあります。
- 汎用型 AI:人間の脳が思考し意思決定する能力を模倣します。ChatGPT や OpenAI の DALL-E などの AI アプリケーションが該当します。
- 特化型 AI:特定のデータを使用して正確な結果を生成します。広告コピーや歌詞の生成などのタスクが該当します。
- ハイパーローカル AI:その分野のスペシャリストとして設計され、最高レベルの精度と関連性を達成できる人工知能。科学記事の執筆や内装デザインのモックアップの作成などが該当します。
インフラストラクチャ・レイヤーは、モデルの構築とトレーニングに必要なハードウェアおよびソフトウェアで構成されます。GPU などの専用プロセッサー (ハードウェア) や最適化およびデプロイツール (ソフトウェア) などのコンポーネントが、このレイヤーに該当します。クラウド・コンピューティング・サービスも、インフラストラクチャ・レイヤーの一部です。
AI インフラストラクチャのコンポーネント
AI インフラストラクチャに含まれる 3 つのレイヤーを説明したので、次に AI モデルの構築、デプロイ、維持に必要なコンポーネントをいくつか見ていきましょう。
データストレージ
データストレージとは、デジタル情報 (アプリケーション、ネットワークプロトコル、ドキュメント、メディア、アドレス帳、ユーザー設定などを構成する情報) を収集および保持するものです。AI 情報を保存、整理、検索する上で、データストレージは欠かせません。
データ管理
データ管理は、データを収集し、保存し、使用するプロセスで、その実現には多くの場合、データ管理ソフトウェアが使用されます。データ管理により、組織が所持するデータの内容、保存場所、所有者、閲覧権限を持つ人、およびアクセス方法を把握できます。適切に制御および実装されたデータ管理ワークフローがあれば、よりよい意思決定を行うために必要な分析的知見を得ることができます。
機械学習フレームワーク
機械学習 (ML) は人工知能 (AI) のサブカテゴリで、アルゴリズムを使用してパターンを識別し、一連のデータ内で予測を行います。また機械学習のフレームワークは、必要なツールとライブラリを提供します。
機械学習運用
機械学習運用 (MLOps) とは、機械学習 (ML) モデルの作成、保守、監視のプロセスを最適化することを目的としたワークフローの一連のプラクティスです。DevOps と GitOps の原則に着想を得た MLOps は、ML モデルをソフトウェア開発プロセスに統合するための、継続的かつ進化し続けるプロセスの確立を目指しています。
Red Hat のリソース
AI インフラストラクチャが重要である理由
確立されたコンポーネントで構成される堅牢な AI インフラストラクチャは、イノベーションと効率性の向上に寄与します。ただし、AI インフラストラクチャの設計にあたっては、考慮すべきメリット、課題、アプリケーションが存在します。
メリット
AI インフラストラクチャは、AI の運用および組織に複数のメリットをもたらします。メリットの 1 つはスケーラビリティで、特にクラウドベースの AI/ML ソリューションでは、運用をオンデマンドでアップスケールおよびダウンスケールする機会を得られます。もう 1 つのメリットは自動化で、反復作業の減少によりミスが軽減し、成果物のより迅速な提供が可能になります。
課題
AI インフラストラクチャにはメリットがありますが、いくつかの課題もあります。最大の課題の 1 つが、処理する必要があるデータの量と品質です。AI システムの学習と意思決定には大量のデータが必要であるため、従来のデータストレージおよび処理手法は、AI ワークロードの規模と複雑さを処理するには不十分な可能性があります。もう 1 つの課題は、リアルタイムの分析と意思決定の要件です。この要件は、インフラストラクチャはデータを素早く効率的に処理しなければならないということで、大量のデータを処理する適切なソリューションの統合を考慮に入れる必要があります。
アプリケーション
これらの課題に対処できるアプリケーションがあります。Red Hat® OpenShift® クラウドサービスを利用すると、アプリケーションを素早く構築、デプロイ、スケーリングできます。プロアクティブな管理とサポートにより、一貫性とセキュリティを向上させることで効率も向上できます。Red Hat Edge は、データが収集される場所の近くにデプロイし、実用的な知見を取得するための助けになります。
Red Hat でできること
Red Hat® AI は、Red Hat のお客様の信頼を得ているソリューションに基づいて構築された AI 製品のポートフォリオです。これを基盤として、当社製品の信頼性、柔軟性、拡張性が維持されます。
Red Hat AI のサポートによって以下のことが可能になります。
- AI を迅速に導入してイノベーションを実現する
- AI ソリューションの提供における複雑さを解消できる
- どこにでもデプロイできる
Red Hat AI の詳細
Red Hat AI パートナー
さらに、当社の AI パートナーエコシステムは成長しています。さまざまなテクノロジーパートナーが Red Hat と連携し、Red Hat AI の運用能力に関する認定を受けています。これにより、選択肢を常にオープンに保つことができます。
Red Hat 公式ブログ
Red Hat のお客様、パートナー、およびコミュニティのエコシステムに関する最新の情報を入手しましょう。