ハイブリッドクラウドにおける AI モデルのためのオープン・プラットフォーム
インテリジェント・アプリケーションと生成 AI の導入
人工知能 (AI)、機械学習 (ML)、ディープラーニング (DL) は、多種多様な企業や業界におけるアプリケーションのモダナイゼーションの取り組みに大きな影響を与えています。イノベーションを起こし、データから戦略的価値と新たな知見を導き出すことの必要性が、AI 対応のクラウドネイティブ・アプリケーションと MLOps 手法の使用拡大を促進しています。同時にこのすばらしい新世界は複雑なものになるでしょうし、開発者からデータサイエンティスト、運用スタッフに至るまで、あらゆる人に影響を及ぼします。AI/ML の運用化は容易ではなく、多くの場合数カ月を要しますが、その間にも生成 AI のイノベーションは日々進展を遂げています。このミスマッチがプロジェクトの失敗を招き、無数の課題の中でビジネスをリスクにさらすことになります。
- 急速に進化するツールやアプリケーションサービスを最新かつ一貫した状態に保つことから、グラフィック・プロセッシング・ユニット (GPU) などのハードウェアリソースのプロビジョニング、AI 対応アプリケーションのスケーリングなど、AI の進歩のペースに合わせるのは大変なことです。
- AI に投資する際にはリスクを軽減した上で、価値を得なければなりません。モデルやアプリケーションに情報を提供するために機密データを使用する場合はなおさらです。
- アプリケーション開発者とデータサイエンティストが異なるプラットフォームを維持する場合、コラボレーションが複雑化し、開発スピードを妨げることがあります。
- AI 対応アプリケーションのデプロイは、データ生成ポイントの近くで、大規模に行わなければなりません。
最先端のハイブリッドクラウド・アプリケーション・プラットフォームである Red Hat® OpenShift® 上に構築され、Red Hat AI ポートフォリオに含まれる Red Hat OpenShift AI は、データサイエンティストと開発者に対し、インテリジェント・アプリケーションの構築とデプロイに対応する強力な AI/ML プラットフォームを提供します。組織にとっては、選択したツールによる実験、コラボレーション、市場投入時間の短縮が可能になり、これらすべてを 1 つの共通プラットフォーム内で行うことができます。Red Hat OpenShift AI は、データサイエンティストや開発者が求めるセルフサービス環境と、エンタープライズ IT が求める信頼性を兼ね備えています。
信頼できる基盤を使用することで、ライフサイクル全体を通じて摩擦が軽減されます。Red Hat OpenShift AI は、堅牢なプラットフォーム、人気のある認定ツールから成る広範なエコシステム、モデルをプロダクションにデプロイするための使い慣れたワークフローを提供します。これらの利点により、チーム間の摩擦が少ないコラボレーションが可能になり、AI 対応アプリケーションの市場投入を効率化でき、結果的にビジネスに大きな価値がもたらされます。
ハイライト
インフラストラクチャのスケーリングと自動化によって、実験から実稼働への移行時にかかるコストを削減します。
データサイエンティスト、データエンジニア、アプリケーション開発者、DevOps チームを強化する一貫したユーザーエクスペリエンスにより、チーム全体で AI/ML の運用効率を向上させます。
オンプレミス、クラウド、またはエッジで AI/ML ワークロードを構築、トレーニング、デプロイ、監視することで、ハイブリッドクラウドの柔軟性を実現します。
迅速な開発、トレーニング、テスト、デプロイ
Red Hat OpenShift AI は、AI 対応アプリケーションを構築、デプロイ、管理するツールを備えた柔軟でスケーラブルな AI プラットフォームです。オープンソース・テクノロジーを使用して構築されており、実験、モデル提供、革新的なアプリケーションの提供のための、信頼性と一貫性に優れた運用機能を提供します。Red Hat OpenShift AI はインテリジェント・アプリケーションの提供を加速し、共有された一貫性のあるプラットフォーム上で、ML モデルが初期のパイロットからインテリジェント・アプリケーションへとより迅速に移行できるようにします。
Red Hat OpenShift AI は、予測および生成 AI モデルの構築、トレーニング、チューニング、デプロイ、監視のためのツールを備えた統合ユーザー・インタフェース (UI) エクスペリエンスを提供します。組織はモデルをオンプレミスまたはすべての主要なパブリッククラウドにデプロイでき、商用クラウドに縛られることなく、組織にとって必要な場所でワークロードを実行できる柔軟性が得られます。Red Hat OpenShift AI は、コミュニティの Open Data Hub プロジェクトと、Jupyter、Pytorch、vLLM、Kubeflow などの一般的なオープンソース・プロジェクトに基づいています。
実稼働でのスケーリングにかかるコストを削減
Red Hat OpenShift のアドオンである OpenShift AI は、どんなに要求の厳しいワークロードも処理できるように設計されたプラットフォームを提供します。OpenShift AI は、リソースのプロビジョニングを単純化し、データパイプラインを通じて複数のタスクを自動化することで、実験から実稼働に移行する際に生成 AI および予測型 AI のプロジェクトのトレーニング、サービング、インフラストラクチャに継続的にかかるコストを削減します。OpenShift AI は、vLLM などの最適化されたサービングエンジンとランタイムを使用し、基盤となるインフラストラクチャをワークロードのニーズに応じてスケーリングすることで、モデル推論のコストを削減します。
データサイエンティストは、使い慣れたツールやフレームワークを使用したり、拡大し続けるテクノロジー・パートナー・エコシステムにアクセスして AI/ML の専門知識を深めたりすることができます。所定のツールチェーンに煩わされることはありません。IT 部門が必要なリソースをプロビジョニングするのを待つのではなく、IT チケットを発酵しなくてもクリックするだけでオンデマンドでインフラストラクチャを手に入れられます。
運用の複雑さを軽減
Red Hat OpenShift AI は、データサイエンティスト、データエンジニア、アプリケーションエンジニア、DevOps チームが協力してタイムリーな AI ソリューションを効率的に提供できるようにする、一貫したユーザーエクスペリエンスを提供します。コラボレーティブなワークフローへのセルフサービスアクセス、GPU へのアクセスによる高速化、運用の効率化を実現します。組織はハイブリッドクラウド環境やエッジにおいて、AI ソリューションを一貫性を持って大規模に提供することができます。
OpenShift AI は Red Hat OpenShift のアドオン製品であるため、IT 運用部門はデータサイエンティストやアプリケーション開発者に対し、少ない労力でスケールアップやスケールダウンができる安定した実績のあるプラットフォーム上で、よりわかりやすい構成を提供することができます。不正なクラウド・プラットフォームのアカウントを追跡する必要がないため、IT 部門にとってガバナンスとセキュリティに関する心配が軽減します。
ハイブリッドクラウドの柔軟性を獲得
Red Hat OpenShift AI は、クラウド環境、オンプレミスのデータセンター、またはネットワークエッジなど、データが生成されたり配置されたりする場所に近い場所で AI/ML ワークロードをトレーニング、デプロイ、監視する機能を提供します。この柔軟性により AI 戦略を進化させることができ、ビジネスの必要に応じてクラウドやエッジに運用を移すことができます。組織はエアギャップ環境や切断された環境など、関連する規制、セキュリティ、データ要件を満たす必要があるどの場所でも、モデルや AI 対応アプリケーションをトレーニングおよびデプロイすることができます。
2025 年にどのテクノロジー分野により多くの資金を費やすかという質問に対し、84% が AI と回答しました (前年は 73%)。1
Red Hat OpenShift AI
図 1 は、モデル運用ライフサイクルが OpenShift AI を共通のプラットフォームとして統合し、主要なアプリケーション・プラットフォームである Red Hat OpenShift の機能を拡張する様子を示しています。従来のソフトウェアのようにセルフマネージド型として、またはマネージドクラウドサービスとして提供される、実績のあるハイブリッドクラウド・プラットフォームを基盤にできるため、非常に高い柔軟性を得ることができます。セルフマネージド版は、オンプレミスでも 3 大パブリッククラウド環境でも、Red Hat OpenShift が稼働する場所ならどこでも実行できます。クラウドサービス版は、Red Hat OpenShift Service on AWS と Red Hat OpenShift Dedicated (AWS または Google Cloud Platform 上) で利用できます。
また、Red Hat のソリューションは、数十社の AI ソフトウェアおよび SaaS (Software-as-a-Service) パートナーからなる豊富なエコシステムとの連携を通じて、AI 機能を拡張することも可能です。 Red Hat OpenShift AI の柔軟性と構成可能性により、特定のニーズに合ったエンドツーエンドの AI/ML プラットフォームを組み立てることができます。
生成 AI モデルを使い始めたばかりのユーザー向けに、OpenShift AI には Red Hat Enterprise Linux® AI のコンポーネントが含まれています。これは Granite ファミリーの大規模言語モデル (LLM) を開発、テスト、実行し、エンタープライズ・アプリケーションを強化するための基盤モデル・プラットフォームです。Red Hat OpenShift AI で提供される Granite モデルに加えて、フレームワークは HuggingFace、Stability AI、その他のモデルリポジトリのモデルをサポートしています。
Red Hat OpenShift AI は IBM watsonx.ai の基盤となるコンポーネントであり、生成 AI ワークロードのための基本的な AI ツールとサービスを提供します。watsonx は、AI ビルダーがローコードまたはノーコードで生成 AI アプリケーションを提供するためのエンタープライズスタジオを提供しています。また、モデル開発のための使いやすいワークフロー、IBM 基盤モデルおよび厳選されたオープンソースモデルのライブラリへのアクセスを提供します。Red Hat OpenShift と OpenShift AI は、watsonx ソフトウェアの組み込みの技術的前提条件です。
Red Hat OpenShift AI がもたらす中心的なツールと機能が強固な基盤を提供します。
- モデル構築とファインチューニング:データサイエンティストは、JupyterLab UI で探索的データサイエンスを行うことができ、TensorFlow、PyTorch、CUDA を含む一般的な Python ライブラリやパッケージと、すぐに使える安全に構築されたノートブックイメージを提供できます。さらに、独自のカスタム・ノートブック・イメージを提供することができ、データサイエンティストはプロジェクトやワークベンチで仕事を整理しながらノートブックを作成し、共同作業を行うことができます。
- モデル提供:Red Hat OpenShift AI は、モデル提供ルーティングのためのさまざまなフレームワークを提供し、コンピューティング・リソースの要件に関係なく、予測機械学習や基盤モデルの本番環境へのデプロイを単純化します。生成 AI ワークロード向けには vLLM を活用したモデル推論を提供し、最も一般的なオープンソースの大規模言語モデル (LLM) において業界最先端のパフォーマンスと効率性を実現します。また、このソリューションでは好みのランタイムを持ち込んで利用することもでき、柔軟性と制御性がもたらされます。
- データサイエンス・パイプライン:Red Hat OpenShift AI にはデータサイエンス・パイプライン・コンポーネントも含まれており、データサイエンスタスクをパイプラインにオーケストレーションしたり、グラフィカルなフロントエンドを使用してパイプラインを構築したりすることができます。組織は、データの準備、モデルの構築、モデルの提供といったプロセスを連鎖させることができます。
- モデル監視:Red Hat OpenShift AI は、運用指向のユーザーがモデルサーバーとデプロイされたモデルの運用とパフォーマンスのメトリクスを監視するのに役立ちます。 データサイエンティストは、パフォーマンスや運用のメトリクスのためにすぐに使える視覚化機能を使用したり、他の可観測性サービスとデータを統合したりすることができます。
- ワークロードの分散: 分散ワークロードにより、モデルのトレーニング、チューニング、提供とともにデータ処理を高速化できます。この機能は、最適なノード利用とともに、ジョブの実行の優先順位付けと分散をサポートします。高度な GPU サポートは、基盤モデルのワークロード要求に対応するのに役立ちます。
- バイアスとドリフトの検出:Red Hat OpenShift AI は、データサイエンティストがトレーニングデータに基づいてモデルが公平で偏りがないかを監視するだけでなく、実際のデプロイ時における公平性も監視できるツールを提供します。ドリフト検出ツールには、デプロイされた ML モデルの入力データ分布が含まれており、モデル推論に使用されるライブデータがモデルのトレーニングに使用されたデータから大きく逸脱したときに、それを検出できます。
- AI ガードレール (テクニカルプレビュー中):AI ガードレールのサポートには、ユーザーが要求できるインタラクションの種類を保護する入力検出機能と、モデル出力の安全性確認を支援する出力検出機能が含まれます。AI ガードレールは、ヘイト、罵倒、卑猥な発言、個人を特定できる情報、競合情報を出力するのを防止し、その他のドメイン固有の制約を適用するのに役立ちます。当社は一連の検出機能を提供しています。また、お客様は独自の検出機能を追加できます。
- モデル評価:モデルの探索および開発フェーズにおいて、LM 評価 (LM-Eval) コンポーネントは、モデルの品質に関する重要な情報を提供します。LM-Eval により、データサイエンティストは論理的推論、数学的推論、敵対的自然言語処理など、さまざまなタスクにおいて LLM モデルのパフォーマンスをベンチマークできます。当社が提供するベンチマークは業界標準に基づいています。
- モデルレジストリ:Red Hat OpenShift AI は、登録済みモデルを表示・管理するための中心拠点を提供し、データサイエンティストが予測型 AI モデルと生成 AI モデル、メタデータおよびモデルのアーティファクトを共有、バージョン管理、デプロイ、追跡できるよう支援します。
OpenShift AI には、Jupyter Notebook イメージと、事前にパッケージ化されているイメージや組織のカスタムイメージをデータサイエンスチームにデプロイするための Jupyter Spawner に加え、JupyterLab への Git プラグインも含まれており、ユーザー・インタフェースから直接 Git との統合を高速化します。他にも一般的な分析パッケージが製品の一部として提供されるため、運用が単純化され、Pandas、scikit-learn、NumPy など、組織のプロジェクトに適切なツールを使用して簡単に開始することができます。JupyterLab の代替 IDE として RStudio サーバー (テスト・検証済み) と VS Code サーバーも提供されており、データサイエンティストの選択肢を広げます。このプロジェクトの UI では、データサイエンティストは自分のワークスペースを作成してノートブックイメージやアーティファクトをプロジェクトとして整理および共有したり、他のユーザーとコラボレーションしたりすることができます。
生成 AI プロジェクトの場合、OpenShift AI は分散型の InstructLab トレーニングをプレビュー機能として提供します。InstructLab は Red Hat Enterprise Linux AI の主要コンポーネントであり、モデルアライメントツールを提供することで、AI の専門知識がなくても、プライベートデータを使った小規模言語モデルのチューニングを効率化できるよう支援します。Red Hat OpenShift AI は、LoRa/QLoRA による大規模言語モデル (LLM) の効率的なファインチューニングもサポートし、計算オーバーヘッドとメモリフットプリントを削減するほか、埋め込みをサポートし、RAG に必要なベクトルデータベースとテキスト情報の統合を容易にします。
予測 AI モデルと生成 AI モデルの両方の要件に対応するには、柔軟なモデル提供アプローチが必要です。Red Hat OpenShift AI は複数のモデル提供フレームワークをサポートしており、提供されているマルチモデル推論サーバーとシングルモデル推論サーバー、または独自のカスタム推論サーバーを選択できます。モデル提供 UI は Red Hat OpenShift AI ダッシュボードとプロジェクトワークスペースに直接統合されています。基盤となるクラスタリソースは、ワークロードの要求に応じてスケールアップまたはスケールダウンできます。最大限のスケーラビリティが求められる LLM の場合、Red Hat OpenShift AI は、vLLM ランタイムによって複数ノードにまたがる並列処理を提供し、複数のリクエストをリアルタイムで処理することができます。
AI ライフサイクル全体のためのツール
Red Hat OpenShift は、組織がモデルを正常にトレーニングおよびデプロイしてプロダクションに移行できるようにするためのサービスとソフトウェアを提供します (図 2)。OpenShift AI に加え、このプロセスは Red Hat Application Foundations と統合されており、リアルタイムデータとイベントストリーミング用の Streams for Apache Kafka、API 管理用の Red Hat 3scale、データ統合用の Apache Camel の Red Hat ビルドが含まれています。
Red Hat OpenShift AI ダッシュボードは、すべてのアプリケーションとドキュメントを検出してそれらにアクセスするための中心的な場所を提供し、導入を容易にします。スマート・スタート・チュートリアルは、一般的なコンポーネントと統合パートナーソフトウェアに関するベストプラクティスのガイダンスを提供します。ダッシュボードから直接利用できるため、データサイエンティストがより迅速に学習し、開始することができます。以下のセクションでは、Red Hat OpenShift AI と統合されたテクノロジー・パートナー・ツールについて説明します。ツールによっては、テクノロジーパートナーからの追加ライセンスが必要になります。
Starburst
Starburst は、組織のチームがビジネス機能を改善するためにデータを迅速かつ容易に活用できるようにすることで、分析を加速します。Starburst はセルフマネージド製品またはフルマネージドサービスとして提供され、データアクセスを民主化し、データ利用者により包括的な知見を提供します。Starburst は、プレミア超並列処理 (MPP) SQL エンジンであるオープンソースの Trino (旧名 PrestoSQL) に基づいて構築されています。Trino の専門家と Presto の作成者によって構築および運用されている Starburst を使用すると、組織のデータを移動することなく、さまざまなデータセットがどこにあっても自由に調べることができます。
Starburst は、Red Hat OpenShift が提供するスケーラブルなクラウドストレージとコンピューティングのサービスと統合し、すべてのエンタープライズデータをクエリする、より安定したセキュリティ重視の効率的かつコスト効率の高い方法を実現します。そのメリットには以下のようなものがあります。
- 自動化:Starburst および Red Hat OpenShift オペレーターは、クラスタの自動設定、自動チューニング、自動管理を提供します。
- 高可用性 (HA) と適切なスケールダウン:Red Hat OpenShift ロードバランサーは、Trino コーディネーターなどのサービスを常時オンの状態に保つことができます。
- 弾力性に優れたスケーラビリティ:Red Hat OpenShift は、クエリの負荷に基づいて Trino ワーカークラスタを自動的にスケーリングできます。
組織は、ラップトップでの実験から重要なエンタープライズデプロイまで、あらゆるものを容易にするデータ管理ソリューションを必要としています。HPE Machine Learning Data Management Software (旧 Pachyderm) により、データサイエンスチームは、自動的なデータバージョン管理が保証するデータリネージュによって、コンテナ化されたデータ駆動型 ML パイプラインを構築および拡張できます。Pachyderm は現実世界のデータサイエンスの問題を解決するように設計されており、チームが再現性を保証しながら ML ライフサイクルを自動化および拡張できるようにするデータ基盤を提供します。HPE Machine Learning Data Management Software には、非構造化データからデータウェアハウス、自然言語処理、動画および画像 ETL (抽出、変換、ロード)、金融サービス、ライフサイエンスなどさまざまなユースケースがあり、以下を提供します。
- すべてのデータ変更を追跡するための高性能の方法を提供する、自動化されたデータバージョン管理
- コンピューティングコストを削減しながらデータ処理を高速化する、データ駆動型のコンテナ化パイプライン
- ML ライフサイクルのすべてのアクティビティとアセットに固定レコードを提供する、不変のデータリネージュ
- 有向非巡回グラフ (DAG) の直感的な視覚化を実現し、デバッグと再現性を支援するコンソール
- バージョン管理データへのポイント・アンド・クリック・インタフェース用の JupyterLab Mount Extension による Jupyter ノートブックのサポート
- 組織内のさまざまなチームにまたがって HPE Machine Learning Data Management Software を大規模にデプロイおよび管理するための堅牢なツールによるエンタープライズ管理
NVIDIA アクセラレーテッド・コンピューティング・ハードウェアおよびソフトウェアのプラットフォームがコンピューティングの新時代を牽引
AI/ML アプリケーションがビジネスの成功にとってますます重要になるにつれ、複雑なワークロードを処理し、ハードウェアの利用を最適化し、スケーラビリティを提供できるプラットフォームが企業に必要になっています。スケーラブルなデータ処理、データ分析、機械学習トレーニング、推論はすべて、リソースを大量に消費する計算タスクであり、アクセラレーテッド・コンピューティングに最適です。 NVIDIA AI Enterprise ソフトウェアは、実稼働グレードの AI ソリューションのデプロイを効率化します。NVIDIA NIM (NVIDIA AI Enterprise に含まれる) は、高性能 AI モデル推論の安全かつ信頼性の高いデプロイを目指して設計された、使いやすいマイクロサービスをセットにしたものです。NVIDIA NIM は、Red Hat OpenShift 環境内の AI モデルの管理とパフォーマンスを強化し、AI アプリケーションが NVIDIA アクセラレーテッド・コンピューティングと NVIDIA AI Enterprise ソフトウェアの可能性をフルに活用できるようにします。NVIDIA アクセラレーテッド・コンピューティング、NVIDIA AI Enterprise、Red Hat OpenShift AI を組み合わせることで、リソース割り当ての改善、効率性の向上、AI ワークロード実行の高速化が実現します。
Intel OpenVINO ツールキット
Intel Distribution の OpenVINO ツールキットは、Intel プラットフォーム上での高性能 DL 推論アプリケーションの開発とデプロイを加速します。このツールキットを使用すると、OpenVINO 開発ツールのエコシステムを使用して、事実上すべてのニューラル・ネットワーク・モデルの導入、最適化、チューニングを行い、包括的な AI 推論を実行することができます。
- モデル:ソフトウェア開発者は独自の DL モデルを柔軟に使用できます。市場投入時間を短縮するために、Intel と Hugging Face のコラボレーションによる OpenVINO ツールキットを通じて利用可能な、事前トレーニング済みで最適化されたモデルを使用することもできます。
- 最適化: OpenVINO ツールキットは、利便性とパフォーマンスを向上させるために複数の方法でモデルを変換することができ、ソフトウェア開発者がより高速かつ効率的な AI モデルの実行を実現できるよう支援します。開発者はモデルの変換を省略し、TensorFlow、TensorFlow Lite、ONNX、PaddlePaddle の形式から直接推論を実行することができます。OpenVINO IR への変換により最適なパフォーマンスが実現し、最初の推論にかかる時間を短縮してストレージスペースを節約します。Neural Network Compression Framework はさらなる改善を提供します。
- デプロイ:OpenVINO ランタイム推論エンジンは、アプリケーションに統合して推論プロセスを高速化するように設計されているアプリケーション・プログラミング・インタフェース (API) です。「一度書けばどこにでもデプロイできる」アプローチにより、CPU (中央処理装置)、GPU、アクセラレーターなど、さまざまな Intel 製ハードウェア上で推論タスクを効率的に実行できます。
Intel® の AI ツール
Intel の AI ツール (旧 Intel AI Analytics Toolkit) は、データサイエンティスト、AI 開発者、研究者に、Intel アーキテクチャ上でエンドツーエンドのデータサイエンスおよび分析パイプラインを高速化するための使い慣れた Python ツールとフレームワークを提供します。コンポーネントは Intel の oneAPI ライブラリを使用して低レベルのコンピューティングを最適化します。このツールキットは、ML による前処理のパフォーマンスを最大化し、効率的なモデル開発のための相互運用性を提供します。
Intel の AI ツールにより次のことが可能になります。
- Intel XPU 上で高性能の DL トレーニングを提供し、Intel に最適化された TensorFlow および PyTorch 用の DL フレームワーク (事前トレーニング済みモデル、低精度ツールを含む) を使用して高速推論を AI 開発ワークフローに統合する。
- Intel 向けに最適化された、コンピューティング集約型の Python パッケージ、Modin、scikit-learn、XGBoost を使用して、データ前処理と ML ワークフローのドロップイン・アクセラレーションを実現する。
- Intel が提供する分析機能と AI 最適化に直接アクセスして、ソフトウェアが中断なく連携できるようにする。
Elastic
Elastic Search AI Platform (ELK Stack 上に構築) は、検索の精度と AI のインテリジェンスの両方を兼ね備えています。ユーザーは LLM のプロトタイプ作成と統合をより迅速に行うことができ、スケーラブルでコスト効率の高いアプリケーションを構築するために生成 AI を活用することができます。Elastic Search AI Platform により、ユーザーは革新的な検索拡張生成 (RAG) アプリケーションを構築し、可観測性の問題をプロアクティブに解決し、複雑なセキュリティ脅威に対処することができます。Elasticsearch は、オンプレミス、好みのクラウドプロバイダー、エアギャップ環境など、お客様のアプリケーションのある場所にデプロイすることができます。
Elastic は単一の簡単な API 呼び出しによって、Red Hat OpenShift AI、Hugging Face、Cohere、OpenAI などのエコシステムからの組み込みモデルと統合できます。このアプローチにより、RAG ワークロードのハイブリッド推論を管理するためのクリーンなコードが実現します。これには以下のような機能が含まれます。
- 多様なデータセットを検索レイヤーに取り込むためのチャンク化、コネクター、Web クローラー
- 多言語ベクトル検索を可能にする、Elastic Learned Sparse EncodeR (ELSER)、組み込みの ML モデル、E5 組み込みモデルを使用したセマンティック検索
- 文書およびフィールドレベルのセキュリティによる、組織のロールベースのアクセス制御にマッピングされた権限と資格の実装
Elastic Search AI Platform では、開発者の世界的なコミュニティの一員として、インスピレーションやサポートを得ることができます。Elastic のコミュニティは Slack、ディスカッション・フォーラム、ソーシャルメディアでご覧いただけます。
まとめ
Red Hat OpenShift AI を使用することで実験とコラボレーションが可能になり、結果的に AI を活用したアプリケーションの導入を加速できます。データサイエンティストは、Red Hat が管理するクラウドベースのアドオンサービスとして、またはセルフマネージド・ソフトウェアとして Red Hat OpenShift AI を柔軟に使用できるため、モデルを構築する場所を問わずタスクを単純化できます。IT 運用部門は MLOps 機能からメリットを得られるため、モデルをより迅速に実稼動にデプロイすることができます。開発者とデータサイエンティスト向けのセルフサービス (GPU へのアクセスを含む) により、エンタープライズ IT がすでに使用し完全に信頼しているアプリケーション・プラットフォームでのイノベーションが加速します。競合するアプローチとは異なり、データサイエンティストは制限のないツールチェーンからツールを選択し、任意の制約を課すことなく新たなデータインサイトをもたらすことができます。