Red Hat AI による AI の運用化

AI の運用化とは、AI ソリューションの大規模なデプロイおよび維持をサポートするシステムとプロセスを構築することを指します。AI の運用化は、機械学習運用 (MLOps) にヒントを得たもので、コラボレーション、自動化、継続的改善を促進するという目標を共有しています。

Red Hat® AI により、組織は目標達成を支援する AI ワークフローを作成し、モデルや運用のデプロイに伴う複雑さを軽減するツールを活用できるようになります。

Red Hat の運用化 AI 製品のスクリーンショットのサムネイル

運用化 AI が組織に役立つ理由

企業においては、AI を運用化することで、AI 対応アプリケーションのライフサイクル管理を単純化できます。

複雑なプロセスを自動化する

複雑なプロセスを自動化する

既定のスケジュールで、または新しいデータが入ってきたタイミングでモデルをファインチューニングするといったタスクを自動化します。これにより、モデルのドリフトを低減または解消し、AI アプリケーションの稼働を最新の情報で維持することができます。 

さらに、運用化 AI でプロセスを自動化および最適化することは、リソースの節約にも寄与します。たとえば、時間のかかる手作業が必要だった AI アクセラレーターへのセルフサービスアクセスを自動化できます。 

将来的な成長痛を軽減する

将来的な成長痛を軽減する 

AI の運用化とは、チームが将来成功するためにどうすればよいかを一足先に考えることです。 

たとえば、複数のサーバーにワークロードを分散させるスケールアウト・デプロイメントに移行することで、複数のチームを対象に複数のモデルを本番環境で稼働する将来に備えることができます。このような分散された方法でモデルのトレーニングと提供を行えば、要求が増加した場合でも、モデルはリクエストを迅速かつ同時に処理できるようになります。

データサイエンス・パイプラインを作成する

データサイエンス・パイプラインを作成する

本番環境で AI を実験する場合、運用化フレームワークが、モデル、データ、設定ファイルへの変更の記録および管理に役立ちます。スケーリングが容易になり、他のユースケースや機能に学習内容を活かすためにも有用です。 

さらに、本番環境における AI 対応アプリケーションの実行方法を運用化することで、組織全体で基準を維持することが容易になり、ばらつきを減らすこともできます。

ガバナンスとコンプライアンスを強化する

ガバナンスとコンプライアンスを強化する

運用化された AI によって、セキュリティ対策を実施し、データプライバシー規制の順守を維持できます。また、運用フレームワークでパフォーマンスと精度を監視することで、ユーザーがモデルを使用する際に発生するハルシネーションや信頼といった一般的な課題を追跡できるようになります。このような継続的な監査により、モデルの優れた品質と精度を長期的に維持できます。

Red Hat AI が選ばれる理由

Red Hat AI はオープンソースのツールとテクノロジーのポートフォリオであり、AI のライフサイクルを管理するための透過的で最適化されたソリューションを提供します。

Red Hat OpenShift® AI はこのポートフォリオの一部であり、大規模デプロイをサポートする MLOps ツールを備えています。

コストを管理する

vLLM などの推論サーバーは、グラフィカル・プロセッシング・ユニット (GPU) のパワーを最適化し、大規模言語モデル (LLM) をより効率的に実行するのに役立ちます。また、ハードウェアコストをさらに削減するため LLM 圧縮アルゴリズムを適用して、ご希望のハードウェア・アクセラレーター上で実行することもできます。 

さらに、分散提供 (vLLM でも利用可能) により、モデル提供を複数の GPU に分割可能です。これにより、1 台のサーバーにかかる負担の軽減、トレーニングやファインチューニングの高速化、コンピューティング・リソースの効率的な利用が可能になります。

コラボレーションを一元化する

AI は学際的な分野であり、さまざまなチームが協力して取り組む必要があります。Red Hat OpenShift AI は、データサイエンティスト、データエンジニア、アプリケーション開発者、DevOps チームが、同じプラットフォームで協力的に作業できるよう、一貫したユーザーエクスペリエンスを提供します。これにより、コラボレーションの向上、エラーの低減、市場投入までの時間短縮が実現します。

モデルの出力を監視する

すぐに使える可視化機能で、デプロイされたモデルのパフォーマンスと精度を監視します。または、既存の可観測性サービスと統合して、パフォーマンス、オペレーション、品質、さらにバイアスと公平性のメトリクスを追跡することもできます。 

さらに、AI ガードレールにより提供される検出機能は、冒涜的な発言や、個人情報、企業ポリシーによって定義されたデータなどを含む機微なコンテンツを検出し、抑制するのに役立ちます。

柔軟性を保つ

Red Hat AI なら、オンプレミスやパブリッククラウド、エッジ、さらにはオフライン環境まで、モデルや AI アプリケーションをトレーニング、チューニング、デプロイ、実行する場所を柔軟に選択できます。選択した環境内で AI モデルを管理することで、アクセスを制御し、コンプライアンス監視を自動化し、データセキュリティを強化できます。

Red Hat コンサルティングサービスとサポート

Red Hat の AI プラットフォームのご利用にあたっては、当社のエンジニアリングチームが全力でサポートいたします。オペレーティングシステムから個々のツールまで、お客様の AI 戦略を前進させるために必要なサポートを提供します。

Red Hat AI アイコン

Red Hat AI

小規模モデルをお客様に関連のあるデータでチューニングし、ハイブリッドクラウド環境へ AI ソリューションをデプロイしましょう。

お客様事例

Clalit のロゴ

Clalit

Clalit では、Red Hat AI を利用して 20 年分の患者データから傾向を特定し、疾患の経過パターンについての理解を深め、患者ケアの改善に役立てています。

Agesic のロゴ

Agesic

Agesic では、Red Hat AI の一貫性のあるハイブリッド AI プラットフォームを利用して、ウルグアイ政府機関全体で AI の使用を標準化し、スケーリングしています。

DenizBank のロゴ

DenizBank

Red Hat AI を使用して構築された DenizBank のハイブリッドクラウド環境では、データサイエンティストがより安全なモデルを構築してデプロイし、市場投入スピードを短縮できるようになりました。

ベンダーを選択するのはお客様です

Red Hat は、ソフトウェアベンダー、ハードウェアベンダー、そしてオープンソース・コミュニティと協力して、包括的な AI ソリューションを提供しています。

ご利用いただけるパートナーの製品およびサービスは、Red Hat テクノロジーとの連携に関してテストと認証を受けており、サポート対象です。

Red Hat パートナー:インテル、NVIDIA、Lenovo、Dell

Red Hat AI について Red Hat に問い合わせる