概要
HPC (高性能計算) とは、一般に、複雑な計算を複数のサーバーで高速に並列処理することを指します。これらのサーバーのグループはクラスタと呼ばれ、ネットワークを介して接続された数百または数千ものコンピューティング・サーバーで構成されます。HPC クラスタでは、各コンポーネント・コンピュータは多くの場合ノードと呼ばれます。
HPC クラスタは一連の計算を実行します。HPC クラスタの中核はスケジューラーであり、利用可能なリソースを追跡するために使われます。これにより、高速ネットワークを介してジョブ要求をさまざまなコンピューティング・リソース (CPU および GPU) に効率的に割り当てることができます。
一般的な HPC ソリューションには、次の 3 つの主要コンポーネントがあります。
- コンピューティング
- ネットワーク
- ストレージ
スーパーコンピュータとは
スーパーコンピュータは、タスクを完了するために連携して動作する数千のコンピューティングノードで構成されています。
これまでの「スーパーコンピュータ」は単一の超高速マシンでしたが、現在の高性能コンピュータは、1 つ以上の中央処理装置 (CPU) を備えたサーバーの大規模なクラスタを使用して構築されています。
現在のスーパーコンピュータは、1 台のデスクトップやサーバーよりもはるかに高い性能を実現するためにコンピューティング能力を集約しており、エンジニアリング、科学、およびビジネスにおける複雑な問題を解決するために使用されています。
HPC の計算能力が高まれば、データ量の多い問題をより大規模なデータセットを使用して、同じ時間で実行できます。そうすれば、問題をより高い解像度、より大きなスケール、またはより多くの要素で記述し、調査することができます。
HPC ソリューションを実行するには、オペレーティングシステムが必要です。世界で最も強力なコンピュータシステムに関して、その経過を追っている TOP500 リストによると、HPC の主要なオペレーティングシステムとして利用されているのは Linux®です。TOP500 リストのスーパーコンピュータのすべてが Linux を実行しており、上位 10 位の多くは Red Hat® Enterprise Linux を実行しています。
Red Hat のリソース
HPC でできること
IoT (モノのインターネット)、人工知能 (AI)、機械学習 (ML) などのテクノロジーの使用が増えるにつれ、組織が生成するデータは大量になり、そのデータをリアルタイムでより迅速に処理して使用できるようにする必要があります。
HPC は現在、クラウドからエッジに至るまであらゆる場所で実行されており、大規模な計算問題を妥当な時間やコストの範囲内で解決できるため、科学、医療、エンジニアリングなど、さまざまな業界で幅広い問題に適用できます。
ますます高度化するアルゴリズムを作動させるために、HPC のリソースをビッグデータに活用する新たなセグメントとして、ハイパフォーマンスデータ分析 (HPDA) が登場しました。さらに、スーパーコンピューティングは、ディープラーニングとニューラルネットワークによって人工知能を進化させることを可能にしています。
HPC は、政府の調査や学術研究、高性能グラフィックス、バイオサイエンス、ゲノミクス、製造業、金融サービスおよび銀行業、地球科学、メディアなど、他の業界やユースケースにも活用できます。
クラウドにおける HPC
ビッグデータの分析や複雑な問題の解決に必要なコンピューティング・リソースは、通常 HPC に関連付けられているデータセンターのオンプレミス・コンピューティング・クラスタを超えて、パブリッククラウドサービスから利用できるリソースにまで拡大しています。
HPC のクラウド導入は、オンプレミスのみのアプローチから特定のインフラストラクチャや場所から切り離されたアプローチにワークロードを移行する上で中心的な役割を果たします。
クラウド・コンピューティングによってリソースをオンデマンドで利用できるようになるので費用効果が高まり、HPC ワークロードをより柔軟に実行することができます。
コンテナ・テクノロジーの導入は、HPC でも勢いを増しています。コンテナは軽量で、低レベルのオーバーヘッドで柔軟性が得られるように設計されており、パフォーマンスとコストが改善します。また、コンテナはスケーラビリティ、信頼性、自動化、セキュリティなど、多くの HPC アプリケーションの要件を満たすのにも役立ちます。
アプリケーションコード、その依存関係、さらにはユーザーデータもパッケージ化する機能と、複数の場所にまたがるグローバルコミュニティとの科学的研究および発見の共有を単純化することへの要求、前述のアプリケーションをパブリッククラウドまたはハイブリッドクラウドに移行する機能がそれぞれ相まって、コンテナと HPC 環境の相性を極めてよいものにしています。
コンテナを使用して HPC のアプリケーションとワークロードをクラウドにデプロイすれば、特定の HPC システムやクラウドプロバイダーに縛られることはありません。
Red Hat による HPC (高性能計算)
Red Hat Enterprise Linux は、オンプレミス、クラウド、またはハイブリッド HPC 環境で、HPC ワークロードに信頼性と効率を大規模に提供するプラットフォームになります。Red Hat Enterprise Linux は、さまざまなコンテナツールを提供し、HPC ワークロードの可搬性と再現性を向上させます。
Red Hat OpenShift は、Kubernetes の機能を拡張し、低遅延のワークロードをどこでもサポートする柔軟なトポロジーオプションを使用して、一貫した運用とアプリケーション・ライフサイクル管理を大規模に行うエンタープライズ・コンテナ・オーケストレーション・プラットフォームです。
Red Hat 公式ブログ
Red Hat のお客様、パートナー、およびコミュニティのエコシステムに関する最新の情報を入手しましょう。