エッジ AI とは

URL をコピー

エッジ人工知能 (AI)、すなわちエッジの AI は、物理的に現地またはその近くでデータを収集できるようにするエッジコンピューティングと AI を組み合わせて使用することをいいます。たとえば、画像認識アルゴリズムのタスクは、データソースに近いほど効率的に実行されます。

エッジ AI では、応答がほぼ瞬時に提供されます。エッジ AI では、デバイスのある場所の近くで AI アルゴリズムがデータを処理できるため、インターネット接続の有無にかかわらず、データは数ミリ秒以内に処理され、フィードバックがリアルタイムで提供されます。機密データがエッジ外に送られることはないため、データに関してはこのプロセスの方が安全です。

エッジ AI は、AI モデルをクラウドシステムのバックエンドで実行するのではなく、ネットワークエッジで動作しているコネクテッドデバイス上で実行するという点で、従来の AI とは異なります。これにより、エッジ上にインテリジェンスの層が追加され、エッジデバイスはメトリクスと分析を収集するほかに、それに対応して動作できます。これはエッジデバイス内に統合機械学習 (ML) モデルがあるからです。

人工知能の目標も同じです。つまり、コンピュータにデータを収集させ、そのデータを処理し、人間の知能と同様の結果を生成させることを目標としています。ただし、エッジ AI は、デバイスが使用されている場所の内部やその付近で、ローカルに機能して意思決定を行います。 

エッジコンピューティングと人工知能を組み合わせると、大きなメリットが生まれます。エッジ AI により、センサーと IoT デバイスが存在する場所であるエッジに HPC (高性能計算) 機能がもたらされます。システム間の接続性や統合を必要としないので、ユーザーはデバイス上でデータをリアルタイムで処理できます。他の物理的な場所と通信せずにデータを収集することで時間を節約できます。

エッジ AI には次のようなメリットがあります。 

  • 消費電力の低下:ローカルでのデータ処理および低い電力要件によって、エッジで AI を実行する際のエネルギーコストをクラウドデータセンターで実行する場合に比べて削減します。
  • 帯域幅の削減:より多くのデータをクラウドに送信しないでローカルで処理、分析、保存することで、送信する必要のあるデータの量を減らし、コストを削減します。
  • プライバシー:エッジ AI によりエッジデバイス上でデータが処理されるため、機密データが漏洩するリスクが低減します。
  • セキュリティ:データをエッジネットワークで処理および保管したり、冗長で不要なデータを除外したりして、重要なデータ転送を優先します。
  • スケーラビリティ:クラウドベースのプラットフォームと相手先ブランド製造 (OEM) 装置のネイティブなエッジ機能で、システムを容易に拡張します。 
  • レイテンシーの短縮:クラウド・プラットフォームでデータを処理する時間を短縮し、ローカルで分析して他のタスクを実行できるようにします。

Red Hat は、オープンソース・コミュニティに参加し、コンテナおよび Kubernetes テクノロジーに大きく貢献してきました。Red Hat® OpenShift® にはテスト済みの信頼できるサービスがまとめられており、アプリケーションの開発、モダナイズ、デプロイ、実行、管理の手間を軽減します。 

Red Hat OpenShift には、データセンター、ハイブリッドクラウド、エッジ全体で一貫した方法で機械学習の運用 (MLOps) を可能にする主要な機能が含まれています。Red Hat OpenShift 上で AI/ML を実行して、AI/ML ワークフローと AI を活用したインテリジェント・アプリケーションの提供を迅速化できます。

Red Hat OpenShift AI は、AI に重点を置いたポートフォリオとして、AI/ML の実験およびモデルのライフサイクル全体で利用できるツールを提供します。IT 運用リーダー向けのオープンソース・テクノロジーに基づく一貫したスケーラブルな基盤であり、専門のパートナーエコシステムをデータサイエンティストや開発者が利用して、AI におけるイノベーションの機会を捉えられるようにします。

ご案内

InstructLab

InstructLab は、大規模言語モデル (LLM) を強化するオープンソース・プロジェクトです。

関連資料

記事

生成 AI とは

生成 AI は、大規模なデータセットで訓練されたディープラーニングモデルを使用して新しいコンテンツを作成します。

記事

機械学習とは

機械学習は、明示的にプログラムしなくても、パターンを見つけ、予測し、経験から学習するようにコンピュータをトレーニングする手法です。

記事

基盤モデルとは

基盤モデルは、さまざまなタスクを実行するように訓練された機械学習 (ML) モデルの一種です。 

AI/ML についてさらに詳しく

製品

新規

エンタープライズアプリケーション向けの Granite 大規模言語モデル (LLM) ファミリーをシームレスに開発し、テストし、実行するための基盤モデルプラットフォームです。

AI に重点を置いたポートフォリオであり、Red Hat OpenShift 上で AI/ML 実験やモデルをトレーニング、チューニング、提供、監視、管理するためのツールを提供します。

統合されたテスト済みのサービス一式を備えたエンタープライズ・アプリケーション・プラットフォームであり、ユーザーの選ぶインフラストラクチャを使ってアプリケーションを市場に投入するために活用できます。 

Red Hat Ansible Lightspeed (および IBM watsonx Code Assistant)  は、Ansible の自動化作成者、運用担当者、および開発者によって、彼ら自身のために設計された生成 AI サービスです。 

関連資料

e ブック

本番利用に適した AI/ML 環境構築のための最重要事項

アナリスト資料

MLOps 向け Red Hat ハイブリッドクラウド・プラットフォームの Total Economic Impact™

Web セミナー

オープンソースと Kubernetes で AI を最大限に活用する