AI プラットフォームとは

URL をコピー

人工知能 (AI) プラットフォームとは、機械学習モデルを開発、訓練、実行するための統合されたテクノロジーの集合体です。AI プラットフォームには通常、自動化機能、機械学習運用 (MLOps)、予測データ分析などが含まれます。作業に必要なすべてのツールが揃い、構築および改良を行うための安定した基盤が提供される作業台のようなものだと考えたら良いでしょう。

AI プラットフォームとその開始方法の選択肢は増え続けています。ここでは注目すべき点のほか、留意すべき最重要事項をご紹介します。 

AI プラットフォームにおいて組織が初めに直面するのは、事前構成済みのものを購入するか、自社でカスタムプラットフォームを構築するかという決断です。 

AI プラットフォームを購入する

AI アプリケーション、モデル、アルゴリズムの迅速なデプロイを検討している場合、包括的な事前構成済み AI プラットフォームの購入が最適です。これらのプラットフォームには、ツール、言語リポジトリ、API が付属しており、セキュリティとパフォーマンスが事前にテストされています。一部のベンダーは、事前にトレーニングされた基礎モデルや生成 AI モデルを提供しています。サポートとオンボーディングリソースにより、既存の環境やワークフローにスムーズに適合させることができます。

Amazon Web Services (AWS) Sagemaker、Google Cloud AI Platform、Microsoft Azure AI Platform、IBM の watsonx.ai™ AI スタジオなど、人気のクラウドプロバイダーは AI プラットフォームでポートフォリオを拡大しています。多くの場合、AI プラットフォーム・プロバイダーは他の AI ソリューションと提携および統合可能なスタンドアローンの AI ツールも提供しています。

AI プラットフォームを構築する

特定のユースケースや高度なプライバシー保護のニーズに対応するため、組織によっては独自の AI プラットフォームを完全にカスタマイズし、管理する必要があります。たとえば Uber は、自然言語処理 (NLP) やコンピュータビジョンなどの技術を駆使したカスタム AI プラットフォームを開発し、GPS と衝突検知能力を向上させました。データ重視のヘルスケア企業である Syapse は、腫瘍に関するデータを実用的な知見に変換する AI ベースのデータプラットフォーム Syapse Raydar® を開発しました。

AI プラットフォームを構築することで環境を完全にコントロールすることができ、ビジネス特有のニーズに合わせて反復させることができます。しかしこのアプローチでは、プラットフォームを立ち上げて稼働させるために、より多くの先行作業が必要となります。メンテナンス、サポート、管理を外注することはできません。

オープンソースを活用する

オープンソース・コミュニティは、人工知能と機械学習の進歩を推進しています。AI イニシアチブの基盤としてオープンソース・ソフトウェア・ソリューションを選択すると、組織が最も使用するフレームワークやツールを常に改善している仲間や実務者のコミュニティに頼ることができます。多くの組織はオープンソースツールから始め、そこから構築していきます。Tensorflow と PyTorch は、AI アプリケーションを開発するためのライブラリとフレームワークを提供するオープンソース・プラットフォームです。

MLOps

機械学習運用 (MLOps) とは、ML モデルのデプロイと保守のプロセスを最適化することを目的としたワークフローの一連のプラクティスです。AI プラットフォームは、モデルのトレーニング、サービス提供、監視といった MLOps フェーズをサポートする必要があります。

大規模言語モデル運用 (LLMOps) は MLOps のサブセットであり、本番環境で大規模言語モデルの運用管理に使用されるプラクティス、技術、ツールです。LLM はテキストの生成、コンテンツの要約、情報の分類などのタスクを実行できるものの、GPU から多大な計算リソースを消費するため、使用する AI プラットフォームは LLM の入出力に対応してサポートするのに十分強力である必要があります。

生成 AI

生成 AI は大規模なデータセットで訓練されたニューラルネットワークとディープラーニングモデルを使用して新しいコンテンツを作成します。生成 AI は、テキストや画像の生成、データの拡張、チャットボットなどの会話型 AI など、エンドユーザーが人工知能から連想するような機能の多くを含みます。AI プラットフォームでは、生成 AI 機能を迅速かつ正確にサポートすることが重要になります。

スケーラビリティ

モデルは規模をスケーリングできてこそ成功します。スケーリングさせるため、データサイエンスチームには AI モデルの構築とデプロイ、実験と微調整、他のチームとの連携を行うための一元化されたソリューションが必要です。これらすべてには、膨大な量のデータとコンピューティングパワーのほか、それらすべてを処理できるプラットフォームが必要です。

モデルが成功すると、それをさまざまな環境 (オンプレミス、パブリッククラウド・プラットフォーム、エッジ) で再現したいと考えるでしょう。スケーラブルなソリューションであれば、これらすべての環境でのデプロイをサポートすることができます。

自動化

本番環境へと進めたいモデルが増加するにつれ、自動化を検討しなければならなくなります。データサイエンス・パイプラインを自動化することで、最も成功したプロセスを反復可能な運用に変えることができます。これによりワークフローが高速化されるだけでなく、ユーザーにとってより優れた予測可能なエクスペリエンスが実現し、スケーラビリティが向上します。また、繰り返しのタスクを排除し、データサイエンティストやエンジニアが革新、反復、改良を行うための時間を確保することができます。 

ツールと統合

開発者やデータサイエンティストは、アプリケーションやモデルを構築し、それらを効率的にデプロイするためにさまざまなツールや統合を活用しています。AI プラットフォームは、技術スタック全体やパートナーのソリューションと統合でき、チームがすでに使用しているツール、言語、リポジトリをサポートできる必要があります。

セキュリティと規制

AI プラットフォームとともに強力なセキュリティ対策を確立することで、リスクを軽減し、データを保護できます。トレーニングや開発などの日常の運用を通じて、共通脆弱性識別子 (CVE) をスキャンし、アクセス管理、ネットワーク・セグメンテーション、暗号化を通じてアプリケーションやデータの運用上の保護を確立することが重要です。

責任とガバナンス

また、AI プラットフォームは、倫理基準を守り、コンプライアンス違反を回避しながら、データを使用および監視できるようになっていなければなりません。組織のデータとユーザーデータの両方を保護するためには、ML ライフサイクル全体を通じて可視化、追跡、リスク管理戦略をサポートするプラットフォームを選択することが重要です。また、組織の既存のデータコンプライアンスとセキュリティの基準を満たしている必要があります。

サポート

エンドツーエンドの事前構成済み AI プラットフォームの最も重要な利点の 1 つは、それに付随するサポートです。継続的なバグ追跡とデプロイメント全体に拡張できる修復機能により、モデルのパフォーマンスが向上します。AI プラットフォーム・プロバイダーの中には、オンボーディングやトレーニングリソースを提供し、すぐに使い始められるものもあります。オープンソースツールを使用して独自のプラットフォームを構築する場合、機械学習機能セットとインフラストラクチャのサポートを提供するベンダーの利用を検討することをお勧めします。 

通信

包括的な AI サービスは、ネットワークのパフォーマンス最適化や通信の製品およびサービスの品質強化など、通信業界のさまざまな部分を効率化することができます。 サービス品質の向上、オーディオ/ビジュアルの強化、解約の防止などに活用できます。

Red Hat® OpenShift® と NVIDIA GPU を活用した Turkcell の AI プラットフォームを見る

医療

堅牢な AI プラットフォームは、診断の迅速化、臨床研究の進歩、患者サービスへのアクセス拡大など、医療環境に変革をもたらすことができます。これにより医師やその他の医療従事者がより正確な診断と治療計画を提供できるようになり、患者の転帰を向上させることができます。

医療における AI について読む

製造

機械学習を活用したインテリジェントな自動化は、製造業のサプライチェーン全体を変革しています。産業用ロボティクスと予測分析が繰り返しタスクの負担を軽減し、より効果的なワークフローがリアルタイムで実装されます。

Guise AI がエッジで品質管理を自動化した方法を学ぶ

Red Hat OpenShift AI は、AI 対応アプリケーションを構築、デプロイ、管理するツールを備えた包括的な前構成済みの MLOps プラットフォームです。オープンソース・テクノロジーを使用して構築されており、実験、モデルのトレーニング、革新的なアプリケーションの提供のための、信頼性と一貫性に優れた運用機能を提供します。OpenShift AI は、オンプレミスとパブリッククラウドで AI/ML の実験およびモデルのライフサイクル全体をサポートします。オペレーティングシステムから個々のツールに至るまで、Red Hat のエンジニアによるフルサポートを利用することができます。OpenShift AI は、ハードウェアパートナーとソフトウェアパートナーのオープンエコシステムにより、特定のユースケースに必要な柔軟性をもたらします。

OpenShift AI を試す

バスク政府が、市民のためにバスク語をスペイン語、フランス語、英語に翻訳するための言語ツールを開発したいと考えたとき、Red Hat OpenShift は、GPU によるコンテナのサポートなど、AI のライフサイクルを強化するために必要な機能の多くを提供しました。

プロジェクトの詳細を見る

関連資料

記事

生成 AI とは

生成 AI は、大規模なデータセットで訓練されたディープラーニングモデルを使用して新しいコンテンツを作成します。

記事

機械学習とは

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。

記事

基盤モデルとは

基盤モデルは、さまざまなタスクを実行するように訓練された機械学習 (ML) モデルの一種です。 

AI/ML についてさらに詳しく

製品

新規

エンタープライズアプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーをシームレスに開発し、テストし、実行するための基盤モデルプラットフォームです。

AI に重点を置いたポートフォリオであり、Red Hat OpenShift 上で AI/ML 実験やモデルをトレーニング、チューニング、提供、監視、管理するためのツールを提供します。

統合されたテスト済みのサービス一式を備えたエンタープライズ・アプリケーション・プラットフォームであり、ユーザーの選ぶインフラストラクチャを使ってアプリケーションを市場に投入するために活用できます。 

Red Hat Ansible Lightspeed (および IBM watsonx Code Assistant)  は、Ansible の自動化作成者、運用担当者、および開発者によって、彼ら自身のために設計された生成 AI サービスです。 

関連資料

e ブック

本番利用に適した AI/ML 環境構築のための最重要事項

アナリスト資料

MLOps 向け Red Hat ハイブリッドクラウド・プラットフォームの Total Economic Impact™

Web セミナー

オープンソースと Kubernetes で AI を最大限に活用する