AI インフラストラクチャとは
日常生活において AI (人工知能) の存在感が増している中、効率的で効果的なワークフローを実現する構造が重要になっています。そのため、人工知能インフラストラクチャ (AI インフラストラクチャ) が必要となっています。
適切に設計されたインフラストラクチャは、データサイエンティストや開発者によるデータへのアクセス、機械学習アルゴリズムのデプロイ、ハードウェアのコンピューティング・リソースの管理を支援します。
AI インフラストラクチャは、人工知能と機械学習 (AI/ML) テクノロジーを組み合わせ、信頼できるスケーラブルなデータ・ソリューションを開発およびデプロイします。機械学習 (ML) を実現し、機械が人間のように考えられるようにするテクノロジーです。
機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。生成 AI に適用でき、それを可能にしているのがディープラーニング (深層学習) です。ディープラーニングは、大量のデータを分析および解釈するための機械学習の手法です。
AI インフラストラクチャのテクノロジースタック
テクノロジースタック、略してテックスタックは、ソフトウェア・アプリケーションの構築およびデプロイに使用されるテクノロジー、フレームワーク、ツールのセットです。見かけ上、これらのテクノロジーはそれぞれの上に積み重ねられ (スタック)、アプリケーションを構築します。AI インフラストラクチャのテクノロジースタックにより、3 つの基本レイヤーを通じてアプリケーションの開発とデプロイを迅速化できます。
アプリケーションレイヤーは、エンドツーエンドのアプリケーションやエンドユーザー向けのアプリケーションなどのツールで人間とマシンがコラボレーションできるようにします。エンドユーザー向けのアプリケーションは通常、オープンソース AI フレームワークを使用して構築され、カスタマイズ可能で特定のビジネスニーズに合わせて調整できるモデルを作成します。
モデルレイヤーは、AI 製品が機能するよう支援します。このレイヤーにはデプロイメントをホストするソリューションが必要です。このレイヤーの基盤を提供する 3 つのモデルがあります。
- 汎用型 AI:人間のような思考と意思決定プロセスを模倣します。ChatGPT や OpenAI の DALL-E などの AI アプリケーションが該当します。
- 特化型 AI:特定のデータを使用して正確な結果を生成します。広告コピーや歌詞の生成などのタスクが該当します。
- ハイパーローカル AI:その分野のスペシャリストとして設計され、最高レベルの精度と関連性を達成できる人工知能。科学記事の執筆や内装デザインのモックアップの作成などが該当します。
インフラストラクチャ・レイヤーは、モデルの構築とトレーニングに必要なハードウェアとソフトウェアのコンポーネントで構成されます。GPU などの専用プロセッサー (ハードウェア) や最適化およびデプロイツール (ソフトウェア) などのコンポーネントが、このレイヤーに該当します。クラウド・コンピューティング・サービスも、インフラストラクチャ・レイヤーの一部です。
AI インフラストラクチャのコンポーネント
AI インフラストラクチャに含まれる 3 つのレイヤーを説明したので、次に AI モデルの構築、デプロイ、維持に必要なコンポーネントをいくつか見ていきましょう。
データストレージ
データストレージとは、デジタル情報 (アプリケーション、ネットワークプロトコル、ドキュメント、メディア、アドレス帳、ユーザー設定などを構成する情報) を収集および保持するものです。AI 情報を保管、整理、取得するためには、データストレージが重要です。
データ管理
データ管理は、データを収集し、保存し、使用するプロセスで、その実現には多くの場合、データ管理ソフトウェアが使用されます。データ管理により、組織が所持するデータの内容、保存場所、所有者、閲覧権限を持つ人、およびアクセス方法を把握できます。適切に制御および実装されたデータ管理ワークフローがあれば、よりよい意思決定を行うために必要な分析的知見を得ることができます。
機械学習フレームワーク
機械学習 (ML) は人工知能 (AI) のサブカテゴリで、アルゴリズムを使用してパターンを識別し、一連のデータ内で予測を行います。機械学習フレームワークは必要なツールとライブラリを提供します。
機械学習運用
機械学習運用 (MLOps) とは、機械学習 (ML) モデルの作成、保守、監視のプロセスを最適化することを目的としたワークフローの一連のプラクティスです。DevOps や GitOps の理念にヒントを得た MLOps は、ML モデルをソフトウェア開発プロセスに統合するための継続的で常に変化するプロセスを確立しようとしています。
AI インフラストラクチャが重要である理由
適切に設計された AI インフラストラクチャは、イノベーションと効率性を促進します。しかし、AI インフラストラクチャを設計する際に考慮すべき利点、課題、用途があります。
メリット
AI インフラストラクチャには、AI 運用および組織にとっていくつかのメリットがあります。メリットの 1 つはスケーラビリティで、特にクラウドベースの AI/ML ソリューションでは、運用をオンデマンドでアップスケールおよびダウンスケールする機会を得られます。もう 1 つのメリットは自動化で、反復作業のミスを減少し、成果物の提供スピードを改善できます。
課題
AI インフラストラクチャにはメリットがありますが、いくつかの課題もあります。最大の課題の 1 つが、処理する必要があるデータの量と品質です。AI システムの学習と意思決定には大量のデータが必要であるため、従来のデータストレージおよび処理手法は、AI ワークロードの規模と複雑さを処理するには不十分な可能性があります。もう 1 つの課題は、リアルタイムの分析と意思決定の要件です。この要件は、インフラストラクチャはデータをすばやく効率的に処理しなければならないということで、大量のデータを処理する適切なソリューションの統合を考慮に入れる必要があります。
アプリケーション
これらの課題に対処できるアプリケーションがあります。Red Hat® OpenShift® クラウドサービスを利用すると、アプリケーションを素早く構築、デプロイ、スケーリングできます。プロアクティブな管理とサポートにより、一貫性とセキュリティを向上させることで効率も向上できます。Red Hat Edge は、データが収集される場所の近くにデプロイし、実用的な知見を取得するための助けになります。
Red Hat が提供できるサポート
AI は私たちの日常生活だけでなく、組織にも影響を与えています。Red Hat のオープンソース・プラットフォームはさまざまな分野や業界で新たな発見や体験の原動力となり、AI モデルとアプリケーションを構築、デプロイ、監視し、会社の未来を主導するために役立ちます。
Red Hat OpenShift AI は、データサイエンティスト、エンジニアおよび開発者がより迅速に、かつ効率的にプロジェクトをビルドし、デプロイし、統合できるようにするための柔軟な環境を提供します。組み込み型のセキュリティや Operator のライフサイクル統合なども Red Hat OpenShift AI のメリットに含まれます。Jupyter-as-a-service と、関連する TensorFlow、Pytorch、その他のフレームワークライブラリが提供されます。さらに、数社のソフトウェア・テクノロジー・パートナー (Starburst、IBM、Anaconda、Intel、NVIDIA) が AI サービスに統合され、データ獲得からモデルの構築、モデルのデプロイ、監視まで、新しいツールを見つけて試すのが容易になりました。このすべてを先進的なクラウドネイティブ環境で行えます。
Red Hat の AI パートナーは、Red Hat インフラストラクチャを基盤として、AI/ML アプリケーション開発を完了および最適化します。データの統合と準備から、AI モデルの開発とトレーニング、新しいデータに基づくモデルの提供と推論 (予測の作成) に至るソリューションを使用した AI ライフサイクルの完成を支援します。