Amazon EC2 P3 インスタンスを使用すべき理由
Amazon EC2 P3 インスタンスは、クラウド内でハイパフォーマンスコンピューティングを提供します。最大 8 個の NVIDIA® V100 Tensor Core GPU を搭載し、機械学習と HPC アプリケーション向けに最大 100 Gbps のネットワークスループットを実現します。これらのインスタンスは、インスタンスごとに最大 1 ペタフロップの混合精度のパフォーマンスを提供し、機械学習とハイパフォーマンスコンピューティングアプリケーションを大幅に加速します。Amazon EC2 P3 インスタンスは、機械学習のトレーニング時間を日単位から分単位に短縮し、ハイパフォーマンスコンピューティング用のシミュレーション実行数を 3~4 倍に増やすことが実証されています。
Amazon EC2 P3dn.24xlarge インスタンスは、P3 ファミリーに追加された最新のメンバーであり、P3.16xlarge インスタンスの最大 4 倍のネットワーク帯域幅を持ち、分散機械学習と HPC アプリケーション用に最適化されています。これらのインスタンスは、最大 100 Gbps のネットワークスループット、96 個のカスタム Intel® Xeon® Scalable (Skylake) vCPU、8 NVIDIA® V100 Tensor Core GPU (それぞれに 32 GiB のメモリを搭載)、1.8 TB の NVMe ベースのローカル SSD ストレージを提供します。また、P3dn.24xlarge インスタンスは、NVIDIA Collective Communications Library (NCCL) を使用する分散型機械学習アプリケーションを加速する Elastic Fabric Adapter (EFA) をサポートしています。EFA は数千の GPU に拡張できるため、深層学習トレーニングモデルのスループットとスケーラビリティが大幅に向上し、結果がより速くなります。
Amazon EC2 P3 インスタンスの概要
利点
お客様の声
お客様とパートナーが Amazon EC2 P3 インスタンスを使用してビジネス目標を達成した例をいくつかご紹介します。
-
Airbnb
Airbnb は、機械学習を使用して検索の推奨事項を最適化し、ホストの動的価格設定のガイダンスを改善しており、いずれも予約コンバージョンの増加につながっています。Amazon EC2 P3 インスタンスを使用することで、Airbnb はトレーニングワークロードのより迅速な実行、より多くの反復処理、優れた機械学習モデルの構築、コストの削減ができます。
-
Celgene
Celgene は、患者に合う標的療法を開発している世界的なバイオテクノロジー企業です。同社は、Amazon EC2 P3 インスタンスで次世代のゲノムシーケンスと化学シミュレーションを行うために HPC ワークロードを実行しています。この計算能力により、Celgene はディープラーニングモデルをトレーニングして、悪性細胞と良性細胞を区別することができます。P3 インスタンスを使用する前は、大規模な計算ジョブを実行するまで 2 か月かかりましたが、今ではわずか 4 時間で処理できます。AWS テクノロジーにより、Celgene はがんや炎症性疾患の薬物療法の開発を加速することができました。
-
Hyperconnect
Hyperconnect は、機械学習に基づく新しいテクノロジーを画像や動画処理に適用することを専門としており、モバイルプラットフォーム向けの webRTC を開発した最初の企業です。
-
NerdWallet
NerdWallet は個人金融スタートアップであり、顧客が借金を完済し、最高の金融商品やサービスを選択して、家の購入や退職後の貯蓄などの主要な人生の目標に容易に取り組めるようにするツールとアドバイスを提供します。同社は、データサイエンスと機械学習 (ML) を大幅に活用して、顧客とパーソナライズされた金融商品を結び付けています。
-
PathWise Solutions Group
品質システムソリューションのリーダーである Aon’s PathWise は、エンタープライズリスク管理モデリング向けクラウドベースの SaaS アプリケーションスイートであり、スピード、信頼性、セキュリティ、およびオンデマンドサービスをさまざまな顧客に提供します。
-
Pinterest
Pinterest は、AWS の P3 インスタンスで混合精度トレーニングを使用してディープラーニングモデルのトレーニングを高速化し、これらのインスタンスを使用してより高速なモデル推論を行い、ユーザーに高速でユニークな発見体験を提供しています。Pinterest では、AWS で PyTorch を使用して作成された PinSage を使用しています。この AI モデルは、特定のテーマに基づいて画像をグループ化します。プラットフォーム上に 30 億の画像がある場合、180 億の異なる関連付けが画像を接続します。これらの関連付けを使用して、Pinterest がテーマ、スタイルをコンテキスト化して、よりパーソナライズされたユーザー体験を生み出します。
-
Salesforce
Salesforce は機械学習を使用して Einstein Vision を強化しています。これにより開発者は画像認識の能力を視覚検索、ブランド検出、製品識別といったユースケースに活かすことができています。Amazon EC2 P3 インスタンスにより、開発者たちは深層学習モデルをさらに速くトレーニングし、機械学習の目標を迅速に達成できます。
-
Schrodinger
Schrodinger はハイパフォーマンスコンピューティング (HPC) を使用して予測モデルを開発し、発見と最適化の規模を拡大することで、顧客が人の命に関わる薬をより迅速に市場に投入できるようにしています。Schrodinger は Amazon EC2 P3 インスタンスを使用することによって、P2 インスタンスを使用していたときの 4 倍のシミュレーションを 1 日の間に実行できます。
-
Subtle Medical
Subtle Medical は、医療画像の効率性と患者体験を改善するための革新的な深層学習ソリューションに取り組んでいる医療テクノロジー企業です。スタンフォード、MIT、MD アンダーソンなどの有名な画像科学者、放射線科医、AI 専門家で構成されたチームを抱えています。
-
Western Digital
Western Digital は HPC を使用して、材料科学、熱流、磁気、データ転送のシミュレーションを何万回も実行し、ディスクドライブやストレージソリューションのパフォーマンスと品質を向上させています。初期のテストによると、P3 インスタンスを使用することで、エンジニアリングチームは、以前にデプロイされたソリューションより少なくとも 3 倍速くシミュレーションを実行できています。
Amazon EC2 P3 インスタンスと Amazon SageMaker
Amazon EC2 P3 インスタンスと AWS Deep Learning AMI
事前設定済みの開発環境で深層学習アプリケーションの構築を迅速に開始
より多くのカスタマイズされた要件を満たす必要があるデベロッパーのために Amazon SageMaker の代わりとなる AWS Deep Learning AMI は、クラウド上での深層学習をあらゆる規模で加速するためのインフラストラクチャとツールを機械学習の実践者や研究者に提供します。Amazon EC2 P3 インスタンスには TensorFlow、PyTorch、Apache MXNet、Microsoft Cognitive Toolkit、Caffe、Caffe2、Theano、Torch、Chainer、Gluon、Keras といった一般的なディープラーニングフレームワークがプリインストールされています。このため、Amazon EC2 P3 インスタンスをすばやく起動して、高度なカスタム AI モデルのトレーニング、新しいアルゴリズムの実験、新しいスキルや技術の学習を行うことができます。 詳細
Amazon EC2 P3 インスタンスとハイパフォーマンスコンピューティング
AWS で HPC のパワーを使用してコンピューティングに関する大きな問題を解決し、新しいインサイトを獲得
Amazon EC2 P3 インスタンスは、エンジニアリングシミュレーション、金融工学、地震分析、分子モデリング、ゲノミクス、レンダリングやその他の GPU コンピューティングワークロードを実行するための理想的なプラットフォームです。ハイパフォーマンスコンピューティング (HPC) により、サイエンティストやエンジニアは、複雑でコンピューティング負荷の高い問題を解決できます。HPC アプリケーションでは、通常、高いネットワークパフォーマンス、高速ストレージ、大容量メモリ、高いコンピューティング性能が必要になります。AWS を使用すると、クラウド内で HPC を実行し、大多数のオンプレミス環境で現実的とされる数よりも多い数まで並列タスクをスケールすることで、研究の速度を上げて、結果を取得するまでの時間を短縮できます。たとえば、P3dn.24xlarge インスタンスは Elastic Fabric Adapter (EFA) をサポートしています。これにより、Message Passing Interface (MPI) を使用する HPC アプリケーションを数千の GPU に拡張できます。AWS では、特定のアプリケーション用に最適化されたソリューションを利用できるため、大規模な設備投資を回避しながらコストを削減するのに役立ちます。 詳細を確認する
NVIDIA RTX Virtual Workstation のサポート
NVIDIA RTX Virtual Workstation AMI は、AWS クラウドで実行される NVIDIA Volta V100 GPU による強力な P3 インスタンスを使用して、高いグラフィックスパフォーマンスを実現します。これらの AMI には、最新の NVIDIA GPU グラフィックスソフトウェアが、最新の RTX ドライバーおよび NVIDIA ISV 証明書とともにプリインストールされており、最大で 4K の解像度を持つ 4 つのデスクトップがサポートされています。NVIDIA V100 GPU と RTX vWS を組み合わせた P3 インスタンスは、最大 32 GiB の GPU メモリ、高速レイトレーシング、および AI 搭載レンダリングを備えたクラウド内の高性能ワークステーションを提供します。
新しい AMI は AWS Marketplace で入手でき、Windows Server 2016 および Windows Server 2019 がサポートされます。
Amazon EC2 P3dn.24xlarge インスタンス
Amazon EC2 P3 インスタンスの製品の詳細
インスタンスサイズ | GPUs – Tesla V100 | GPU Peer to Peer | GPU メモリ (GB) | vCPU | メモリ (GB) | ネットワーク帯域幅 | EBS 帯域幅 | オンデマンド料金/時間* | 1 年間のリザーブドインスタンスの実質的時間単価* | 3 年間のリザーブドインスタンスの実質的時間単価* |
---|---|---|---|---|---|---|---|---|---|---|
p3.2xlarge | 1 | 該当なし | 16 | 8 | 61 | 最大 10 Gbps | 1.5 Gbps | 3.06 USD | 1.99 USD | 1.05 USD |
p3.8xlarge | 4 |
NVLink | 64 | 32 | 244 | 10 Gbps | 7 Gbps | 12.24 USD | 7.96 USD | 4.19 USD |
p3.16xlarge | 8 | NVLink | 128 | 64 | 488 | 25 Gbps | 14 Gbps | 24.48 USD | 15.91 USD | 8.39 USD |
p3dn.24xlarge | 8 | NVLink | 256 | 96 | 768 | 100 Gbps | 19 Gbps | 31.218 USD | 18.30 USD | 9.64 USD |
* – 提示されている料金は、米国東部 (バージニア北部) AWS リージョン内で使用される Linux/Unix に対する料金で、1 セント未満は四捨五入しています。すべての価格詳細を確認するには、Amazon EC2 料金ページを参照してください。
P3 インスタンスは、オンデマンドインスタンス、リザーブドインスタンス、スポットインスタンス、および Dedicated Host として購入できます。
秒単位の使用料金
クラウドコンピューティングの数あるメリットの 1 つは、必要に応じたリソースのプロビジョニングやプロビジョニングの解除ができる、伸縮自在な性質です。秒単位で使用料金が請求されるため、お客様の伸縮性のレベルアップ、コストの削減、機械学習の目標達成に向けたリソース配分の最適化が可能になります。
リザーブドインスタンスの料金
リザーブドインスタンスは、オンデマンドインスタンスに比べて料金が大幅に割引となります (最大 75%)。さらに、特定のアベイラビリティーゾーンにリザーブドインスタンスを割り当てると、キャパシティーが予約されるため、必要な時に安心してインスタンスを作成することができます。
スポット料金
スポットインスタンスでは、インスタンスの実行期間中の有効なスポット料金を支払います。スポットインスタンス料金は Amazon EC2 で設定され、スポットインスタンス容量に対する長期の需給傾向に基づいて緩やかに調整されます。スポットインスタンスは、オンデマンド料金と比べて最大 90% の割引価格で利用できます。
最も幅広く、グローバルな可用性
Amazon EC2 P3.2xlarge、P3.8xlarge、および P3.16xlarge インスタンスは 14 箇所の AWS リージョンで利用可能です。そのため、お客様はどこでもデータが保存されている場所で、機械学習モデルを柔軟にトレーニングしてデプロイできます。P3 は、米国東部 (バージニア北部)、米国東部 (オハイオ)、米国西部 (オレゴン)、カナダ (中部)、欧州 (アイルランド)、欧州 (フランクフルト)、欧州 (ロンドン)、アジアパシフィック (東京)、アジアパシフィック (ソウル)、アジアパシフィック (シドニー)、アジアパシフィック (シンガポール)、中国 (北京)、中国 (寧夏)、および GovCloud (米国西部) AWS リージョンで利用できます。
P3dn.24xlarge インスタンスは、アジアパシフィック (東京)、欧州 (アイルランド)、米国東部 (バージニア北部)、米国西部 (オレゴン)、GovCloud (米国西部)、GovCloud (米国東部) AWS リージョンでご利用いただけます。
Amazon EC2 P3 インスタンスで機械学習を開始する
数分で使用を開始するには、Amazon SageMaker の詳細をご覧ください。または、人気の深層学習フレームワーク (Caffe2 や MXNet など) とともに事前インストールされている AWS Deep Learning AMI を使用できます。また、GPU ドライバーや CUDA ツールキットが事前にインストールされている NVIDIA AMI を使用することもできます。