AI010

Red Hat AI Inference Server Technical Overview

概要

Red Hat AI Inference Server で AI ワークロードを最適化し、コストを削減できます。

コースの説明

  • Red Hat AI Inference Server Technical Overview コースを受講すると、AI のデプロイに関する重要な知見を得ることができ、AI モデルを本番環境で実行する際の複雑さとコストへの対処方法を習得できます。Red Hat のソリューションは、vLLM を活用することでパフォーマンスを最適化し、クラウド、オンプレミス、仮想化、およびエッジの各環境で大幅なコスト削減を実現します。その仕組みをご確認ください。また、量子化や投機的デコーディングなどの高度なテクノロジーについて詳しく学び、AI の推論機能を強化できるようになります。このオンデマンド型の動画コンテンツでは、OpenShift AI 内でのシームレスなモデルのデプロイと管理のデモを行い、AI ワークロードの卓越した効率と柔軟性を実現する方法を説明しています。

学習内容サマリー

  • 推論とは
  • 推論に関する課題
  • Red Hat AI Inference Server ソリューション
  • Red Hat AI ポートフォリオの統合
  • 柔軟なデプロイ
  • LLM 圧縮ツール (量子化)
  • パフォーマンス最適化技術 (kV キャッシュ、投機的デコーディング、テンソル並列推論)
  • 事例
  • モデルのデプロイと管理
  • モデルのストレージ接続
  • メトリクスと監視
  • Hugging Face 統合

コース対象者

  • AI/ML のエンジニアおよび実務担当者
  • DevOps エンジニア
  • クラウドアーキテクトとエンジニア
  • 技術的な意思決定者

おすすめのトレーニング

  • この技術概要の受講に必要な前提条件はありません。

テクノロジー上の留意事項

  • なし
学習内容

学習内容

  • 推論とは
  • 推論に関する課題
  • Red Hat AI Inference Server ソリューション
  • Red Hat AI ポートフォリオの統合
  • 柔軟なデプロイ
  • LLM 圧縮ツール (量子化)
  • パフォーマンス最適化技術 (kV キャッシュ、投機的デコーディング、テンソル並列推論)
  • 事例
  • モデルのデプロイと管理
  • モデルのストレージ接続
  • メトリクスと監視
  • Hugging Face 統合
成果

推奨される次のコースまたは試験

場所を選択する

オンサイトトレーニングをご利用いただけます

チーム全体に対するトレーニングをご希望の場合は、お客様の施設で、対面またはリモートで実施することができます。

Red Hat ラーニングサブスクリプション

Red Hat 製品に関する包括的なトレーニングとラーニングパス、業界で認められた認定、柔軟で動的な IT 学習体験。

Red Hat ラーニングコミュニティで、このコースについての他の受講生のレビューをご確認ください。