Red Hat AI によるエージェント型 AI
エージェント型 AI とは、人間による監督をそれほど必要とすることなく問題解決を行い、複雑なタスクを実行するように設計されたソフトウェアシステムのことです。
エージェント型 AI は、大規模言語モデル (LLM) を使用し、生成 AI の能力を基盤としています。外部ツールと接続・通信することで、自動化されたタスクを全体的に認識、判断、調整し、定義された目標を達成します。
エンタープライズ環境において、エージェント型 AI は複雑で長く面倒なワークフローをわずかな時間で完了できるため、生産性と効率性の向上に貢献します。Red Hat® AI を活用してエージェント型 AI 導入の成功に向けたプロセスを単純化し、加速させましょう。
エージェント型 AI は組織にどのように役立つか
エージェント型 AI は、既存のツールをインテリジェントに統合し、従来のワークフローを強化します。既存のデジタル・インフラストラクチャ上で動作し、機能します。
内部および外部のデータソースと通信・連携する能力を備えているため、状況を認識し、文脈を理解します。これにより、ニーズを先読みし、変化に適応し、さらには自身の作業を振り返ることができます。
モデル・コンテキスト・プロトコル (MCP) は、AI アプリケーションと外部サービス間の双方向接続と標準化された通信を可能にするオープンソース・プロトコルです。MCP サーバーは、エンタープライズツールおよびリソースを AI アプリケーションやエージェント型ワークフローに統合できます。
AI エージェントで顧客データを変革する
Red Hat AI を選ぶ理由
Red Hat AI は、既存アプリケーション内でのエージェント型 AI ワークフローの構築、管理、展開に対応する柔軟なアプローチと安定した基盤を提供します。
単純化されたエージェント・ワークフロー構築
Red Hat AI は、新しいエージェントの構築と既存のエージェントのモダナイゼーションを容易にする機能を提供します。Llama Stack にもアクセスできます。Llama Stack はすぐに使えるエージェント・フレームワークと、安全性、評価、トレーニング後処理などのさまざまな機能に対応する統合型 API レイヤーを提供します。これにより、LLM、AI エージェント、検索拡張生成 (RAG) といったコンポーネントの統合が効率化し、エージェント型ワークフローの作成が単純化されます。
適応性とガバナンスに優れたエージェント展開
多様なエージェント・フレームワークとエージェント間およびエージェントとツール間の接続をサポートする、安全ながらも適応性の高いプラットフォームを活用できます。Model Context Protocol (MCP) を使用することでツールに接続できます。また、Llama Stack 経由でエージェントを接続するための抽象化レイヤーとして利用することもできます。数十年に及ぶコンテナセキュリティの実績に基づいて構築されている監視とガバナンスの統合機能により、システムアクティビティとエージェントの動作が可視化されます。
スケーラブルでコスト最適化されたエージェント・インフラストラクチャ
柔軟なハードウェア・アクセラレーターとインテリジェントなリソース管理により、ハイブリッドクラウド環境全体でエージェント型 AI アプリケーションを一貫して展開・管理できます。Red Hat OpenShift® AI (Red Hat AI Inference Server を含む) は、実稼働環境における AI エージェントの能力を最適化します。これによってスケーリングが効率化し、従来高額だったコストを削減できます。
高い柔軟性
Red Hat AI では、オンプレミス、パブリッククラウド、エッジ、さらにはオフライン環境など、モデルと AI アプリケーションをトレーニング、チューニング、展開、実行する場所をユーザーが柔軟に選択できます。任意の環境内で AI モデルを管理できるため、アクセス制御、コンプライアンス監視の自動化、データセキュリティの強化が実現します。
Red Hat AI
小規模モデルをお客様に関連のあるデータでチューニングし、ハイブリッドクラウド環境へ AI ソリューションをデプロイしましょう。
ベンダーを選択するのはお客様です
Red Hat は、ソフトウェアベンダー、ハードウェアベンダー、オープンソース・コミュニティと連携し、包括的な AI ソリューションを提供しています。
当社のテクノロジーで動作するようテスト、サポート、認定されたパートナー製品およびサービスをご利用いただけます。