The Open Source Way (オープンソースウェイ) で AI を活用
人工知能 (AI) はさまざまな分野や業界で新たな発見や体験の原動力となっています。Red Hat のプラットフォームを使用し、オープンソース・コミュニティのスピード、信頼性、透明性によって強化された AI モデルとアプリケーションを構築、デプロイ、監視、活用しましょう
AI を構築して活用するための注目のソリューション
Red Hat® Enterprise Linux® AI
オープンソース・ライセンスの LLM の使用を開始する
Red Hat Enterprise Linux AI は、創造性の促進と生成 AI アプリケーションの実現を支援します。
Red Hat Enterprise Linux AI には、オープンソース・ライセンスの Granite 大規模言語モデル (LLM) ファミリーと、LLM 機能を強化するためのコミュニティ主導のソリューションである InstructLab が統合されています。
Red Hat OpenShift® AI
ハイブリッドクラウド全体で AI アプリケーションを作成して実行
Red Hat OpenShift AI は、組織独自の AI 対応アプリケーションのモデルを構築、トレーニング、テスト、提供するためのオープンソース・プラットフォームです。
データサイエンティストと開発者は、フルサポート付きの環境を通してオンプレミスとパブリッククラウドで ML ワークロードとモデルを迅速にデプロイして監視することができます。
Red Hat Lightspeed
AI を使用して効率を向上
Red Hat では、 Red Hat Ansible® Lightspeed with IBM watsonx Code Assistant に続いて、プラットフォームをさらに使いやすくする追加の生成 AI サービスをロールアウトしています。
Red Hat Lightspeed ポートフォリオには、問題を解決したりサポートを受けたりするための生成 AI ベースのバーチャルアシスタントである、OpenShift Lightspeed が含まれる予定です。さらに、近日公開予定の Red Hat Enterprise Linux Lightspeed では、Linux の構築、デプロイ、管理をわかりやすくすることを目指しています。
AI に Red Hat を選ぶ理由
Red Hat のオープン・ハイブリッドクラウド戦略は、Linux、コンテナ、自動化という技術基盤により、AI アプリケーションを必要なあらゆる場所で実行するための柔軟性を実現しています。
Red Hat Enterprise Linux AI は、エンタープライズ・アプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーをシームレスに開発、テスト、実行するために使用される基盤モデル・プラットフォームです。
Red Hat OpenShift AI は、チームが AI アプリケーションと機械学習 (ML) モデルを透明性と制御性をもって構築し、デプロイするための共通のプラットフォームを提供します。
大規模な AI デプロイメント向けに、Red Hat OpenShift は AI ワークロードに適したスケーラブルなアプリケーション・プラットフォームを提供しており、一般的なハードウェア・アクセラレーターへのアクセスを完備しています。
Red Hat Ansible Automation Platform に始まり Red Hat ポートフォリオ全体に至るまで、AI 対応ツールは Red Hat Lightspeed を通じて生産性を向上させ、スキルの障壁を低くします。
コミュニティ・プロジェクト
Red Hat は、AI へのオープンソースのアプローチによって、実験とイノベーションに対する障壁が取り除かれると考えています。
InstructLab は、オープンソース・コントリビューター・モデルの力を活用した LLM へのコントリビューションや、そうした LLM のトレーニングに対する新しいアプローチです。
Podman AI Lab により、開発者がローカル・ワークステーションで直感的なグラフィカル・インタフェースを使用して、生成 AI アプリケーションを構築、テスト、実行できるようになります。
OpenShift AI サンドボックスで試す
Red Hat OpenShift AI は、Open Data Hub やその他のオープンソース・プロジェクトから厳選されたコンポーネントを使用して、データから知見を収集し AI 対応アプリケーションを構築するための強力なオープン・ハイブリッド AI/ML プラットフォームをデータサイエンティストや開発者に提供します。Red Hat の開発者サンドボックスでお試しください。
AI エコシステムとつながる
Red Hat の AI パートナーと共に、AI パイプラインを完成してください。データの統合および準備から、AI モデルの開発とトレーニング、新しいデータに基づくモデルの提供と推論に至る至るソリューションをご活用ください。
ソリューションパターン
Red Hat と NVIDIA AI Enterprise による AI アプリケーション
RAG アプリケーションを作成する
Red Hat OpenShift AI は、データサイエンス・プロジェクトを構築し、AI 対応アプリケーションを提供するためのプラットフォームです。独自の参照ドキュメントから AI の回答を取得する手法の 1 つである 検索拡張生成 (RAG) をサポートするために必要なすべてのツールを統合できます。OpenShift AI を NVIDIA AI Enterprise に接続すると、 大規模言語モデル (LLM) を試して、アプリケーションに最適なモデルを見つけることができます。
ドキュメントのパイプラインを構築する
RAG を利用するには、まずドキュメントをベクトルデータベースに取り込む必要があります。サンプルアプリでは、一連の製品ドキュメントを Redis データベースに埋め込んでいます。これらのドキュメントは頻繁に変更されるため、定期的に実行するこのプロセス用のパイプラインを作成すると、常に最新バージョンのドキュメントを入手できます。
LLM カタログを閲覧する
NVIDIA AI Enterprise ではさまざまな LLM のカタログにアクセスできるため、さまざまな選択肢を試して、最良の結果が得られるモデルを選択できます。モデルは NVIDIA API カタログでホストされています。API トークンを設定したら、OpenShift AI から直接 NVIDIA NIM モデル提供プラットフォームを使用してモデルをデプロイできます。
適切なモデルを選択する
さまざまな LLM をテストする際、ユーザーは生成される応答をそれぞれ評価することができます。Grafana モニタリング・ダッシュボードを設定して、各モデルの評価だけでなく、レイテンシーと応答時間も比較できます。そしてそのデータを使用して、プロダクションで使用する最適な LLM を選択できます。
実際の AI 成功事例
Red Hat が Ortec Finance の成長の加速と市場投入時間の短縮を支援
リスクおよびリターン管理のためのテクノロジーとソリューションを世界中で提供する Ortec Finance は、Microsoft Azure Red Hat OpenShift に基づく機械学習モデルを提供しており、Red Hat OpenShift AI を導入しています。
Banco Galicia、新規顧客のオンボーディングを迅速化
Red Hat OpenShift で AI ベースのインテリジェントな自然言語処理 (NLP) ソリューションを使用して、Banco Galicia は確認にかかる時間を数日から数分に短縮し、さらに 90% の精度を達成しました。
ボストン大学、教育プラットフォームを構築
ボストン大学では、Red Hat OpenShift AI を使用して学習環境を拡張し、何百人ものコンピュータサイエンスおよびコンピュータ・エンジニアリングのユーザーが利用できるようにしました。