Amazon EC2 P3 インスタンス

強力な GPU で機械学習とハイパフォーマンスコンピューティングアプリケーションを加速

Amazon EC2 P3 インスタンスを使用すべき理由

Amazon EC2 P3 インスタンスは、クラウド内でハイパフォーマンスコンピューティングを提供します。最大 8 個の NVIDIA® V100 Tensor Core GPU を搭載し、機械学習と HPC アプリケーション向けに最大 100 Gbps のネットワークスループットを実現します。これらのインスタンスは、インスタンスごとに最大 1 ペタフロップの混合精度のパフォーマンスを提供し、機械学習とハイパフォーマンスコンピューティングアプリケーションを大幅に加速します。Amazon EC2 P3 インスタンスは、機械学習のトレーニング時間を日単位から分単位に短縮し、ハイパフォーマンスコンピューティング用のシミュレーション実行数を 3~4 倍に増やすことが実証されています。

Amazon EC2 P3dn.24xlarge インスタンスは、P3 ファミリーに追加された最新のメンバーであり、P3.16xlarge インスタンスの最大 4 倍のネットワーク帯域幅を持ち、分散機械学習と HPC アプリケーション用に最適化されています。これらのインスタンスは、最大 100 Gbps のネットワークスループット、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、8 NVIDIA® V100 Tensor Core GPU (それぞれに 32 GiB のメモリを搭載)、1.8 TB の NVMe ベースのローカル SSD ストレージを提供します。また、P3dn.24xlarge インスタンスは、NVIDIA Collective Communications Library (NCCL) を使用する分散型機械学習アプリケーションを加速する Elastic Fabric Adapter (EFA) をサポートしています。EFA は数千の GPU に拡張できるため、深層学習トレーニングモデルのスループットとスケーラビリティが大幅に向上し、結果がより速くなります。

Amazon EC2 P3 インスタンスの概要

利点

機械学習アプリケーションのスピードアップを必要とするデータサイエンティスト、リサーチャー、およびデベロッパーにとって、Amazon EC2 P3 インスタンスはクラウド内の最速の機械学習トレーニング用インスタンスです。Amazon EC2 P3 インスタンスには、最新世代の NVIDIA V100 Tensor Core GPU が最大 8 個搭載されており、混合精度で最大 1 ペタフロップのパフォーマンスにより、ML ワークロードを大幅に加速します。モデルトレーニングの高速化によって、データサイエンティストや機械学習エンジニアは、より速く反復処理を行い、より多くのモデルをトレーニングし、精度を向上させています。

クラウド内の最強の GPU インスタンスの 1 つであることに加えて柔軟な料金プランにより、機械学習トレーニング用のソリューションとして費用対効果の高さは比類がありません。通常の Amazon EC2 インスタンスと同じように、P3 インスタンスはオンデマンドインスタンス、リザーブドインスタンス、またはスポットインスタンスとして利用できます。スポットインスタンスは、未使用の EC2 インスタンスの容量を活用することで、Amazon EC2 のコストをオンデマンド料金の最大 70% まで節約できます。

オンプレミスのシステムとは異なり、Amazon EC2 P3 インスタンスでハイパフォーマンスコンピューティングを実行すると、事実上無制限の容量でインフラストラクチャをスケールアウトできます。また、ワークロードの需要に応じてリソースを簡単に変更できる柔軟性があります。アプリケーションの必要に応じてリソースを設定し、HPC クラスターを数分以内に起動できます。利用した分のみの料金を支払います。

事前にパッケージ化された Docker イメージを使用すると、深層学習環境を数分でデプロイできます。イメージには、必要になる深層学習フレームワークのライブラリ (現時点では TensorFlow と Apache MXNet) とツールが含まれ、そのすべてがテスト済みです。モニタリング、コンプライアンス、データ処理を高度に制御するために、イメージに独自のライブラリやツールを追加することも簡単に行えます。さらに、Amazon EC2 P3 インスタンスはシームレスに Amazon SageMaker と連携し、強力かつ直感的で、完全な機械学習プラットフォームを提供します。Amazon SageMaker は、フルマネージド型の機械学習プラットフォームで、機械学習モデルを迅速かつ簡単に構築、トレーニング、デプロイできます。さらに、Amazon EC2 P3 インスタンスは、一般的な深層学習フレームワークにプリインストールされている AWS 深層学習 Amazon マシンイメージ (AMI) と統合できます。これにより、機械学習トレーニングおよび推論をより高速かつ簡単に開始できます。

お客様の声

お客様とパートナーが Amazon EC2 P3 インスタンスを使用してビジネス目標を達成した例をいくつかご紹介します。

  • Airbnb

    Airbnb は、機械学習を使用して検索の推奨事項を最適化し、ホストの動的価格設定のガイダンスを改善しており、いずれも予約コンバージョンの増加につながっています。Amazon EC2 P3 インスタンスを使用することで、Airbnb はトレーニングワークロードのより迅速な実行、より多くの反復処理、優れた機械学習モデルの構築、コストの削減ができます。

  • Celgene

    Celgene は、患者に合う標的療法を開発している世界的なバイオテクノロジー企業です。同社は、Amazon EC2 P3 インスタンスで次世代のゲノムシーケンスと化学シミュレーションを行うために HPC ワークロードを実行しています。この計算能力により、Celgene はディープラーニングモデルをトレーニングして、悪性細胞と良性細胞を区別することができます。P3 インスタンスを使用する前は、大規模な計算ジョブを実行するまで 2 か月かかりましたが、今ではわずか 4 時間で処理できます。AWS テクノロジーにより、Celgene はがんや炎症性疾患の薬物療法の開発を加速することができました。

  • Hyperconnect

     

    Hyperconnect は、機械学習に基づく新しいテクノロジーを画像や動画処理に適用することを専門としており、モバイルプラットフォーム向けの webRTC を開発した最初の企業です。

    導入事例全文を読む

    Hyperconnect は、動画通信アプリケーションで AI ベースの画像分類を使用して、ユーザーが存在している現在の環境を認識しています。Horovod を使用してオンプレミスのワークステーションから複数の Amazon EC2 P3 インスタンスに移行することで、1 週間以上かかっていた ML モデルのトレーニング時間を 1 日未満に短縮しました。機械学習フレームワークとして PyTorch を使用することにより、モデルを迅速に開発し、オープンソースコミュニティで使用可能なライブラリを活用できました。

    Hyperconnect 社 AI ラボディレクター、Sungjoo Ha 氏
  • NerdWallet

    NerdWallet は個人金融スタートアップであり、顧客が借金を完済し、最高の金融商品やサービスを選択して、家の購入や退職後の貯蓄などの主要な人生の目標に容易に取り組めるようにするツールとアドバイスを提供します。同社は、データサイエンスと機械学習 (ML) を大幅に活用して、顧客とパーソナライズされた金融商品を結び付けています。

    導入事例の全文を読む

    NVIDIA V100 Tensor コア GPU で Amazon SageMaker および Amazon EC2 P3 インスタンスを使用することで、NerdWallet の柔軟性とパフォーマンスも向上し、データサイエンティストが機械学習モデルをトレーニングするために必要な時間が短縮されました。「以前は、モデルのリリースとイテレーションに数か月かかっていたのが、今では数日で済みます。

    NerdWallet 社シニアエンジニアリングマネージャー、Ryan Kirkman 氏
  • PathWise Solutions Group

    品質システムソリューションのリーダーである Aon’s PathWise は、エンタープライズリスク管理モデリング向けクラウドベースの SaaS アプリケーションスイートであり、スピード、信頼性、セキュリティ、およびオンデマンドサービスをさまざまな顧客に提供します。

    導入事例を読む

    Aon の PathWise Solutions Group は、顧客が最新のテクノロジーを活用して、ヘッジ戦略の管理とテスト、規制と経済に関する予測、予算編成など、今日の保険に関する主な課題を迅速に解決できるようにするリスク管理ソリューションを提供します。PathWise は 2011 年から AWS の本番で実行されており、今では Amazon EC2 P シリーズインスタンスを使用して、世界中の絶えず進歩および進化する市場における顧客のために、これらの課題の解決に必要な計算を加速しています。

    Aon Pathwise Strategy and Technology Group、Global Head of Life Solutions、Van Beach 氏
  • Pinterest

    Pinterest は、AWS の P3 インスタンスで混合精度トレーニングを使用してディープラーニングモデルのトレーニングを高速化し、これらのインスタンスを使用してより高速なモデル推論を行い、ユーザーに高速でユニークな発見体験を提供しています。Pinterest では、AWS で PyTorch を使用して作成された PinSage を使用しています。この AI モデルは、特定のテーマに基づいて画像をグループ化します。プラットフォーム上に 30 億の画像がある場合、180 億の異なる関連付けが画像を接続します。これらの関連付けを使用して、Pinterest がテーマ、スタイルをコンテキスト化して、よりパーソナライズされたユーザー体験を生み出します。

  • Salesforce

     

    Salesforce は機械学習を使用して Einstein Vision を強化しています。これにより開発者は画像認識の能力を視覚検索、ブランド検出、製品識別といったユースケースに活かすことができています。Amazon EC2 P3 インスタンスにより、開発者たちは深層学習モデルをさらに速くトレーニングし、機械学習の目標を迅速に達成できます。

  • Schrodinger

    Schrodinger はハイパフォーマンスコンピューティング (HPC) を使用して予測モデルを開発し、発見と最適化の規模を拡大することで、顧客が人の命に関わる薬をより迅速に市場に投入できるようにしています。Schrodinger は Amazon EC2 P3 インスタンスを使用することによって、P2 インスタンスを使用していたときの 4 倍のシミュレーションを 1 日の間に実行できます。 

  • Subtle Medical

    Subtle Medical は、医療画像の効率性と患者体験を改善するための革新的な深層学習ソリューションに取り組んでいる医療テクノロジー企業です。スタンフォード、MIT、MD アンダーソンなどの有名な画像科学者、放射線科医、AI 専門家で構成されたチームを抱えています。

    導入事例全文を読む

    病院およびイメージングセンターは、IT 部門に負担をかけずにこのソリューションを導入して、GPU の専門知識を取得し、コストのかかるデータセンターやミニクラウドを構築して維持したいと考えています。これらの組織は、投入する労力と投資を最小限に抑えながら、デプロイを成功させたいと考えており、AWS はこれを可能にします。

    Subtle Medical 創設者兼 CEO、Enhao Gong 氏
  • Western Digital

    Western Digital は HPC を使用して、材料科学、熱流、磁気、データ転送のシミュレーションを何万回も実行し、ディスクドライブやストレージソリューションのパフォーマンスと品質を向上させています。初期のテストによると、P3 インスタンスを使用することで、エンジニアリングチームは、以前にデプロイされたソリューションより少なくとも 3 倍速くシミュレーションを実行できています。 

Amazon EC2 P3 インスタンスと Amazon SageMaker

Amazon SageMaker を使用すると、簡単に機械学習モデルを構築し、トレーニングのための準備ができます。また、トレーニングデータにすばやくアクセスし、アプリケーションに合ったアルゴリズムとフレームワークを選択して最適化するために必要なものがすべて提供されます。Amazon SageMaker には、Amazon S3 に保存されているトレーニングデータを簡単に分析して可視化できる、ホスト型の Jupyter ノートブックが含まれています。  また、ノートブックインスタンスを使用してコードを記述することや、モデルのトレーニングジョブの作成、Amazon SageMaker ホスティングへのモデルのデプロイ、モデルのテストや検証も実行できます。

コンソールでワンクリックするか、API コールを使用してモデルのトレーニングを開始できます。Amazon SageMaker には、最新バージョンの TensorFlow と Apache MXNet、および NVIDIA GPU で最適なパフォーマンスを得るための CUDA9 ライブラリサポートが事前設定済みです。加えて、ハイパーパラメータ最適化の機能では、異なる組み合わせのモデルパラメータをスマートに調節して最も正確な予測に迅速に到達させることで、モデルのチューニングを自動的に実行できます。さらに大きなスケールが必要な場合、数十のインスタンスにスケールして、モデル構築を迅速に実行できます。

トレーニング終了後、複数のアベイラビリティーゾーンをまたいで、自動的にスケールする Amazon EC2 インスタンスにモデルをワンクリックでデプロイできます。本番稼働用環境では、Amazon SageMaker がお客様に代わってコンピューティングインフラストラクチャを管理し、ヘルスチェックを行い、セキュリティパッチを適用し、その他の日常的メンテナンスを行います。これらのすべてに組み込みの Amazon CloudWatch モニタリングとログ記録が使用されます。

Amazon EC2 P3 インスタンスと AWS Deep Learning AMI

事前設定済みの開発環境で深層学習アプリケーションの構築を迅速に開始

より多くのカスタマイズされた要件を満たす必要があるデベロッパーのために Amazon SageMaker の代わりとなる AWS Deep Learning AMI は、クラウド上での深層学習をあらゆる規模で加速するためのインフラストラクチャとツールを機械学習の実践者や研究者に提供します。Amazon EC2 P3 インスタンスには TensorFlow、PyTorch、Apache MXNet、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Chainer、Gluon、Keras といった一般的なディープラーニングフレームワークがプリインストールされています。このため、Amazon EC2 P3 インスタンスをすばやく起動して、高度なカスタム AI モデルのトレーニング、新しいアルゴリズムの実験、新しいスキルや技術の学習を行うことができます。 詳細

Amazon EC2 P3 インスタンスとハイパフォーマンスコンピューティング

AWS で HPC のパワーを使用してコンピューティングに関する大きな問題を解決し、新しいインサイトを獲得

Amazon EC2 P3 インスタンスは、エンジニアリングシミュレーション、金融工学、地震分析、分子モデリング、ゲノミクス、レンダリングやその他の GPU コンピューティングワークロードを実行するための理想的なプラットフォームです。ハイパフォーマンスコンピューティング (HPC) により、サイエンティストやエンジニアは、複雑でコンピューティング負荷の高い問題を解決できます。HPC アプリケーションでは、通常、高いネットワークパフォーマンス、高速ストレージ、大容量メモリ、高いコンピューティング性能が必要になります。AWS を使用すると、クラウド内で HPC を実行し、大多数のオンプレミス環境で現実的とされる数よりも多い数まで並列タスクをスケールすることで、研究の速度を上げて、結果を取得するまでの時間を短縮できます。たとえば、P3dn.24xlarge インスタンスは Elastic Fabric Adapter (EFA) をサポートしています。これにより、Message Passing Interface (MPI) を使用する HPC アプリケーションを数千の GPU に拡張できます。AWS では、特定のアプリケーション用に最適化されたソリューションを利用できるため、大規模な設備投資を回避しながらコストを削減するのに役立ちます。 詳細を確認する

NVIDIA RTX Virtual Workstation のサポート

NVIDIA RTX Virtual Workstation AMI は、AWS クラウドで実行される NVIDIA Volta V100 GPU による強力な P3 インスタンスを使用して、高いグラフィックスパフォーマンスを実現します。これらの AMI には、最新の NVIDIA GPU グラフィックスソフトウェアが、最新の RTX ドライバーおよび NVIDIA ISV 証明書とともにプリインストールされており、最大で 4K の解像度を持つ 4 つのデスクトップがサポートされています。NVIDIA V100 GPU と RTX vWS を組み合わせた P3 インスタンスは、最大 32 GiB の GPU メモリ、高速レイトレーシング、および AI 搭載レンダリングを備えたクラウド内の高性能ワークステーションを提供します。

新しい AMI は AWS Marketplace で入手でき、Windows Server 2016 および Windows Server 2019 がサポートされます。

Amazon EC2 P3dn.24xlarge インスタンス

Amazon EC2 P3dn.24xlarge インスタンスは、現在提供されている P3 インスタンスサイズの中で最も強力で、最速、最大のインスタンスです。最大 100 Gbps のネットワークスループット、8 個の NVIDIA® V100 Tensor Core GPU (それぞれに 32 GiB のメモリを搭載)、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、1.8 TB の NVMe ベースのローカル SSD ストレージが搭載されています。デベロッパーは、ネットワークの高速化、新しいプロセッサ、GPU メモリの倍増、vCPU の追加が行われたこのインスタンスを使用して、複数のインスタンス (例えば、16 個、32 個、64 個のインスタンス) にジョブをスケールアウトすることで、ML モデルのトレーニングやより多くの HPC シミュレーションの実行にかかる時間を大幅に短縮できます。機械学習モデルは、トレーニングのために大量のデータを必要とします。大量のトレーニングデータに対するアクセスをスピードアップさせるには、インスタンス間のデータの受け渡しのスループットを高めるほかに、Simple Storage Service (Amazon S3) や共有ファイルシステムソリューション (Amazon EFS など) に接続することで P3dn.24xlarge インスタンスのネットワークスループットを利用することもできます。

100 Gbps のネットワークスループットにより、デベロッパーは分散トレーニングのために多数の P3dn.24xlarge インスタンスを効率的に使用し、モデルのトレーニング時間を大幅に短縮できます。AWS カスタムのインテル Skylake プロセッサ (96vCPU を搭載) は、AVX-512 命令をサポートして 2.5 GHz で動作し、データの前処理の最適化を促進します。さらに、P3dn.24xlarge インスタンスは、専有ハードウェアと軽量ハイパーバイザーを組み合わせた AWS Nitro System を使用し、実質的にホストハードウェアのすべてのコンピューティングリソースとメモリリソースをお客様のインスタンスに提供します。P3dn.24xlarge インスタンスは、NVIDIA Collective Communications Library (NCCL) を使用する ML アプリケーションが数千の GPU にスケールできるようにする Elastic Fabric Adapter もサポートしています。

拡張ネットワーキングでは、最大 100 Gbps の集約ネットワーク帯域幅を備えた最新バージョンの Elastic Network Adapter を使用します。これにより、複数の P3dn.24xlarge インスタンス間でデータを共有できるだけでなく、Amazon S3 や共有ファイルシステムソリューション (Amazon EFS など) を介した高スループットのデータアクセスが可能になります。高スループットのデータアクセスは、GPU の使用率を最適化し、コンピューティングインスタンスの最大限のパフォーマンスを提供するために不可欠です。

P3dn.24xlarge インスタンスは、32 GiB メモリの NVIDIA V100 Tensor Core GPU を搭載します。これにより、より高度で、より大規模な機械学習モデルを柔軟にトレーニングできるほか、画像分類システムやオブジェクト検出システムで使用される 4K 画像などの大容量データを一括処理することが可能となります。

Amazon EC2 P3 インスタンスの製品の詳細

インスタンスサイズ GPUs – Tesla V100 GPU Peer to Peer GPU メモリ (GB) vCPU メモリ (GB) ネットワーク帯域幅 EBS 帯域幅 オンデマンド料金/時間* 1 年間のリザーブドインスタンスの実質的時間単価* 3 年間のリザーブドインスタンスの実質的時間単価*
p3.2xlarge 1 該当なし 16 8 61 最大 10 Gbps 1.5 Gbps 3.06 USD 1.99 USD 1.05 USD
p3.8xlarge 4
NVLink 64 32 244 10 Gbps 7 Gbps 12.24 USD 7.96 USD 4.19 USD
p3.16xlarge 8 NVLink 128 64 488 25 Gbps 14 Gbps 24.48 USD 15.91 USD 8.39 USD
p3dn.24xlarge 8 NVLink 256 96 768 100 Gbps 19 Gbps 31.218 USD 18.30 USD 9.64 USD

* – 提示されている料金は、米国東部 (バージニア北部) AWS リージョン内で使用される Linux/Unix に対する料金で、1 セント未満は四捨五入しています。すべての価格詳細を確認するには、Amazon EC2 料金ページを参照してください。

P3 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、および Dedicated Host として購入できます。

秒単位の使用料金

クラウドコンピューティングの数あるメリットの 1 つは、必要に応じたリソースのプロビジョニングやプロビジョニングの解除ができる、伸縮自在な性質です。秒単位で使用料金が請求されるため、お客様の伸縮性のレベルアップ、コストの削減、機械学習の目標達成に向けたリソース配分の最適化が可能になります。

リザーブドインスタンスの料金

リザーブドインスタンスは、オンデマンドインスタンスに比べて料金が大幅に割引となります (最大 75%)。さらに、特定のアベイラビリティーゾーンにリザーブドインスタンスを割り当てると、キャパシティーが予約されるため、必要な時に安心してインスタンスを作成することができます。

スポット料金

スポットインスタンスでは、インスタンスの実行期間中の有効なスポット料金を支払います。スポットインスタンス料金は Amazon EC2 で設定され、スポットインスタンス容量に対する長期の需給傾向に基づいて緩やかに調整されます。スポットインスタンスは、オンデマンド料金と比べて最大 90% の割引価格で利用できます。

最も幅広く、グローバルな可用性

P3 インスタンスのグローバルな可用性

Amazon EC2 P3.2xlarge、P3.8xlarge、および P3.16xlarge インスタンスは 14 箇所の AWS リージョンで利用可能です。そのため、お客様はどこでもデータが保存されている場所で、機械学習モデルを柔軟にトレーニングしてデプロイできます。P3 は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、カナダ (中部)、欧州 (アイルランド)、欧州 (フランクフルト)、欧州 (ロンドン)、アジアパシフィック (東京)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (シンガポール)、中国 (北京)、中国 (寧夏)、および GovCloud (米国西部) AWS リージョンで利用できます。

P3dn.24xlarge インスタンスは、アジアパシフィック (東京)、欧州 (アイルランド)、米国東部 (バージニア北部)、米国西部 (オレゴン)、GovCloud (米国西部)、GovCloud (米国東部) AWS リージョンでご利用いただけます。

Amazon EC2 P3 インスタンスで機械学習を開始する

数分で使用を開始するには、Amazon SageMaker の詳細をご覧ください。または、人気の深層学習フレームワーク (Caffe2 や MXNet など) とともに事前インストールされている AWS Deep Learning AMI を使用できます。また、GPU ドライバーや CUDA ツールキットが事前にインストールされている NVIDIA AMI を使用することもできます。