概要
エッジ機械学習とは、エッジデバイスで機械学習 (ML) モデルを実行して、生データのコレクション内のパターンを収集し、処理し、認識するプロセスのことです。
エッジでの機械学習とは
エッジでの機械学習を最もわかりやすく説明するために、まず、機械学習を構成する 2 つのコンポーネントである機械学習とエッジコンピューティングとに分けて説明します。
- 機械学習は人工知能 (AI) のサブセットであり、AI は人間と比べて何分の 1 かの時間で知覚的なタスクを実行できます。
- エッジコンピューティングとは、ユーザーやデータソースに物理的に近い場所で演算処理を行うコンピューティングのことです。これらのコンピューティング・サービスは、エッジデバイスと呼ばれるコンピュータ上に存在し、生データをリアルタイムに収集し、処理することで、より迅速で信頼性の高い分析が可能になります。
エッジでの機械学習は、IoT (モノのインターネット) などのエッジデバイスで機械学習モデルをローカルで実行する機能を提供します。
エッジの利点
顧客の期待が高まるにつれて、高速で安全な処理能力への要求も高まっています。
企業と顧客の間のあらゆるやり取りは、ハイブリッド・テクノロジーとタッチポイントが混在するようになり、新しいエクスペリエンスを生み出し、優れたエンドツーエンドのユーザーエクスペリエンスを実現するためにデバイス、データ、アプリケーションへの容易なアクセスが必要になっています。
従来は、この処理を行うために、ネットワークを介してデータセットを遠隔地のクラウドに転送していました。しかし、この場合、データが宛先間を移動するまでに長い道のりが必要になるため、フル稼働させることが困難になることがありました。また、遅延やセキュリティ侵害などのさまざまな問題が発生する可能性もあります。
エッジコンピューティングでは、人工知能/機械学習 (AI/ML) を搭載したアプリケーションを、センサー、カメラ、モバイルデバイスなどのデータソースに物理的に近づけることで、従来のクラウドネットワークに依存することなく、より迅速に知見を収集し、パターンを特定し、アクションを開始できます。
エッジ戦略の策定方法
エッジコンピューティングは、水平型の共通プラットフォームを通じて一貫性のあるアプリケーションおよび運用体験をアーキテクチャ全体で実現させるオープン・ハイブリッドクラウド・ビジョンの重要な位置を占めています。
ハイブリッドクラウド戦略では、組織は自社のデータセンターとパブリッククラウド・インフラストラクチャ (Amazon Web Services、Microsoft Azure、Google Cloud など) で同じワークロードを実行することを可能にしますが、エッジ戦略はさらに拡張し、クラウド環境はデータセンターとの継続的な接続を維持できなくなるような遠隔地にも到達できるようになります。
多くの場合、エッジコンピューティング・サイトに割り当てられる IT スタッフが限られているか、存在しないため、一元化されたインフラストラクチャと同じツールとプロセスを使用して管理でき、かつ非接続モードで独立して運用できる信頼性の高いエッジコンピューティング・ソリューションが必要になります。
一般的に、包括的なエッジコンピューティング・ソリューションは次のような機能を備えています。
- コアからエッジまで、一貫したデプロイモデルを実行する
- 接続性とデータ管理に関連するニーズに最適な、柔軟なアーキテクチャのオプションを提供する
- コアデータセンターからリモートエッジサイトへのインフラストラクチャのデプロイと更新を自動化し、管理する
- インフラストラクチャ全体にわたって大規模に、ソフトウェア・アプリケーションのプロビジョニング、アップデート、メンテナンスを行う
- インターネット接続に信頼性がない場合でも、リモートエッジサイトで運用を継続する
- 柔軟なスケーリング対応の強固なソフトウェア・プラットフォームを持つ
- セキュリティが課題となるエッジ環境でデータとインフラストラクチャを保護する
機械学習戦略の策定方法
ML モデルを構築し、運用化するための方法は 1 つではありませんが、データセットを収集して準備し、モデルをインテリジェントなアプリケーションに発展させ、これらのアプリケーションから収益を得るというニーズは常に存在します。MLOps と呼ばれる統合された ML 機能を使用してこれらのアプリケーションを運用し、それらを最新の状態に保つには、データサイエンティスト、開発者、ML エンジニア、IT 運用担当者、およびさまざまな DevOps テクノロジー間のコラボレーションが必要です。
DevOps と GitOps の原則を適用することで、ソフトウェア開発プロセス、本番環境のロールアウト、監視、再トレーニング、再デプロイに ML モデルを統合する反復プロセスを自動化および単純化して、継続的な予測精度の向上を実現します。
Red Hat® OpenShift® では、このプロセスは基本的に 4 つの手順に分類されます。
- トレーニング:ML モデルは Red Hat OpenShift 上の Jupyter Notebook でトレーニングされます。
- 自動化:Red Hat OpenShift Pipelines はイベント駆動型の継続的インテグレーション機能であり、以下を実行して ML モデルをコンテナイメージとしてパッケージ化するのに役立ちます。
保存:モデルストアにデプロイ可能なモデルを保存します。
変換:Red Hat OpenShift ビルドを使用して、保存されたモデルをコンテナイメージに変換します。
テスト:コンテナ化されたモデルイメージをテストして、それらが機能することを確認します。
保管:コンテナ化されたモデルイメージを、Red Hat Quay などのプライベートなグローバルのコンテナイメージ・レジストリに保管します。ここでは潜在的な問題を特定するためにイメージの分析が行われ、その結果、セキュリティリスクと geo レプリケーションが軽減します。
- デプロイ:Red Hat OpenShift GitOps が管理する宣言型の設定により、ML モデルの大規模なデプロイが、場所を問わず自動化されます。
- 監視:Red Hat のいずれかのエコシステムパートナーが提供するツールを使用して、モデルの信頼性、速度、スケールなどが監視され、必要に応じて再トレーニングと再デプロイによる更新が行われます。
エッジでの AI/ML に Red Hat を選ぶ理由
データをビジネス価値に変換しようとする企業にとって、人工知能と機械学習の重要性は急速に高まっています。Red Hat のオープンソース・エッジコンピューティング・ソリューションは、ハイブリッドクラウドでのインテリジェントなアプリケーションの開発プロセスを自動化し、単純化するサービスを提供することで、こうしたビジネス上の取り組みをスピードアップすることに重点を置いています。
Red Hat は、データサイエンティストが AI/ML モデルの構築に取り組む過程で、急速に進化するツール間の連携が失われ、作業が複雑化することがよくあることを認識しています。これにより、チーム、ソフトウェア開発者、IT 運用担当者の生産性やコラボレーションにも影響が及ぶ可能性があります。
このような潜在的な障害を回避すべく、Red Hat OpenShift サービスは、インテリジェントなアプリケーションのクラウド環境とデータセンター全体での一貫した設計、デプロイ、管理をサポートできるように構築されています。
ほとんどの企業は、本来であればデータをもっと有効に活用できるはずなのに、ツールやワークフローに制限されています。Red Hat® OpenShift® Data Science では、データサイエンティストがアルゴリズムを改良し、機械学習モデルの開発、トレーニングおよびテストの実験を行える、サポート付きのセルフサービス環境を提供します。