Istanze P5 di Amazon EC2

Istanze basate su GPU dalle prestazioni più elevate per applicazioni di deep learning e HPC

Perché scegliere le istanze Amazon EC2 P5?

Le istanze P5 di Amazon Elastic Compute Cloud (Amazon EC2), basate sulle più recenti GPU NVIDIA H100 Tensor Core e le istanze P5e basate sulle GPU NVIDIA H200 Tensor Core offrono le massime prestazioni in Amazon EC2 per applicazioni di deep learning (DL) e calcolo ad alte prestazioni (HPC). Permettono di accelerare i tempi di soluzione fino a 4 volte rispetto alle istanze EC2 basate su GPU di generazione precedente e a ridurre i costi di addestramento dei modelli di ML fino al 40%. Queste istanze ti aiutano a iterare sulle tue soluzioni a un ritmo più rapido e a raggiungere il mercato più rapidamente. Puoi utilizzare le istanze P5 e P5e per addestrare e implementare modelli linguistici di grandi dimensioni (LLM) e modelli di diffusione sempre più complessi che sono alla base delle applicazioni di intelligenza artificiale (IA) generativa più esigenti. Tali applicazioni includono la risposta a domande, la generazione di codice, la generazione di video e immagini e il riconoscimento vocale. Puoi utilizzare queste istanze anche per implementare applicazioni HPC impegnative su larga scala per la scoperta farmaceutica, l'analisi sismica, le previsioni meteorologiche e la modellazione finanziaria.

Per offrire questi miglioramenti delle prestazioni e risparmiare sui costi, le istanze P5 e P5e completano le GPU NVIDIA H100 e H200 Tensor Core con prestazioni della CPU e memoria di sistema due volte superiori, nonché uno spazio di archiviazione locale quadruplo rispetto alle istanze basate sulle GPU di generazione precedente. Offrono funzionalità di scalabilità all'avanguardia per l'addestramento distribuito e i carichi di lavoro HPC strettamente accoppiati con un massimo di 3.200 Gb/s di rete utilizzando Elastic Fabric Adapter (EFAv2) di seconda generazione. Per fornire elaborazione su larga scala a bassa latenza, le istanze P5 e P5e vengono implementate in UltraCluster Amazon EC2 che consentono un aumento fino a 20.000 GPU H100 e H200. Questi sono interconnessi con una rete non bloccante nell'ordine dei petabit. Le istanze P5 e P5e negli UltraCluster EC2 possono offire fino a 20 exaflop di capacità di elaborazione aggregata, con prestazioni equivalenti a quelle di un supercomputer.

Istanze P5 di Amazon EC2

Vantaggi

Le istanze P5 e P5e possono addestrare modelli di IA generativa di grandi dimensioni su larga scala e fornire prestazioni fino a quattro volte superiori rispetto alle istanze EC2 basate su GPU di generazione precedente.

Le istanze P5 e P5e riducono i tempi di addestramento e i tempi di soluzione da diverse settimane a pochi giorni. Questo ti aiuta a iterare a un ritmo più veloce e ad arrivare sul mercato più rapidamente.

Le istanze P5 e P5e offrono un risparmio fino al 40% sull'addestramento DL e sui costi dell'infrastruttura HPC rispetto alle istanze EC2 basate su GPU di generazione precedente.

Le istanze P5 e P5e forniscono fino a 3.200 Gb/s di rete EFAv2. Queste istanze sono implementate negli UltraCluster EC2 e offrono 20 exaflop di capacità di elaborazione aggregata.

Caratteristiche

Le istanze P5 forniscono fino a 8 GPU NVIDIA H100 con un totale di 640 GB di memoria GPU HBM3 per istanza. Le istanze P5e forniscono fino a 8 GPU NVIDIA H200 con un totale di 1128 GB di memoria GPU HBM3e per istanza. Entrambe le istanze supportano fino a 900 GB/s di interconnessione GPU NVSwitch (per un totale di 3,6 TB/s di larghezza di banda bisezionale in ogni istanza), in modo che ogni GPU possa comunicare con ogni altra GPU nella stessa istanza con latenza single-hop.

Le GPU H100 e H200 di NVIDIA dispongono di un nuovo motore di trasformatore che gestisce in modo intelligente e sceglie dinamicamente tra calcoli FP8 e 16 bit. Questa funzionalità consente di velocizzare l'addestramento DL sugli LLM rispetto alle GPU A100 della generazione precedente. Per i carichi di lavoro HPC, le GPU H100 e H200 di NVIDIA dispongono di nuove istruzioni DPX che accelerano ulteriormente gli algoritmi di programmazione dinamica rispetto alle GPU A100.

Le istanze P5 e P5e forniscono fino a 3.200 Gb/s di rete EFAv2. EFAv2 offre un miglioramento fino al 50% delle prestazioni delle comunicazioni collettive per carichi di lavoro di addestramento distribuiti. EFAv2 è inoltre accoppiato a NVIDIA GPUDirect RDMA per consentire la comunicazione da GPU a GPU a bassa latenza tra i server con bypass del sistema operativo.

Le istanze P5 e P5e supportano i file system Amazon FSx per Lustre consentendo di accedere ai dati con le centinaia di GB/s di throughput e i milioni di IOPS necessari per i carichi di lavoro DL e HPC su larga scala. Ogni istanza P5 o P5e supporta anche fino a 30 TB di archiviazione SSD NVMe locale per un accesso rapido a set di dati di grandi dimensioni. Inoltre, è possibile utilizzare uno spazio di archiviazione economico e virtualmente illimitato con Amazon Simple Storage Service (Amazon S3).

Testimonianze dei clienti

Ecco alcuni esempi di come clienti e partner hanno raggiunto i loro obiettivi aziendali con le istanze Amazon EC2 P4.

  • Anthropic

    Anthropic realizza sistemi di IA affidabili, interpretabili e orientabili che avranno molte opportunità di creare valore a livello commerciale e a vantaggio pubblico.

    In Anthropic, stiamo lavorando per creare sistemi di IA affidabili, interpretabili e orientabili. Sebbene abbiano vantaggi significativi, i grandi sistemi di IA generali odierni possono anche essere imprevedibili, inaffidabili e opachi. Il nostro obiettivo è impegnarci per contribuire a risolvere questi problemi e implementare sistemi che le persone trovino utili. La nostra organizzazione è una delle poche al mondo che sta costruendo modelli di base nella ricerca sul DL. Questi modelli sono estremamente complessi. Per sviluppare e addestrare questi modelli all'avanguardia, dobbiamo implementarli in modo efficiente su grandi cluster di GPU. Attualmente facciamo largo impiego delle istanze P4 di Amazon EC2 e siamo entusiasti dell'introduzione delle istanze P5. Ci aspettiamo che offrano sostanziali vantaggi in termini di rapporto prezzo/prestazioni rispetto alle istanze P4d e che saranno disponibili sulla vasta scala necessaria per sviluppare LLM di nuova generazione e i prodotti correlati.

    Tom Brown, cofondatore, Anthropic
  • Cohere

    Cohere, uno dei principali pionieri nell'IA linguistica, consente a ogni sviluppatore e azienda di creare prodotti incredibili con una tecnologia di elaborazione del linguaggio naturale (NLP) leader a livello mondiale, mantenendo i propri dati privati e sicuri

    Cohere è all'avanguardia nell'aiutare ogni azienda a sfruttare la potenza dell'IA linguistica per esplorare, generare, cercare e agire sulle informazioni in modo naturale e intuitivo, implementando le soluzioni su più piattaforme cloud nell'ambiente di dati più adatto per ciascun cliente. Le istanze Amazon EC2 P5 basate su NVIDIA H100 consentiranno alle aziende di creare, crescere e dimensionare più velocemente grazie alla loro potenza di calcolo combinata con le funzionalità all'avanguardia di LLM e IA generativa di Cohere.

    Aidan Gomez, CEO, Cohere
  • Hugging Face

    Hugging Face ha la missione di democratizzare un "buon" ML.

    In qualità di community open source di ML in più rapida crescita, ora forniamo oltre 150.000 modelli preaddestrati e 25.000 set di dati sulla nostra piattaforma per la NLP, la visione artificiale, la biologia, l'apprendimento per rinforzo e altro ancora. Grazie ai significativi progressi negli LLM e nell'IA generativa, stiamo collaborando con AWS per sviluppare e contribuire ai modelli open source del prossimo futuro. Non vediamo l'ora di utilizzare le istanze Amazon EC2 P5 tramite Amazon SageMaker su larga scala in UltraCluster con EFA per accelerare la distribuzione di nuovi modelli di IA di base per tutti.

    Julien Chaumond, CTO e cofondatore, Hugging Face

Dettagli prodotto

Dimensioni istanza vCPU Memoria istanza (TiB) GPU   Memoria GPU Larghezza di banda della rete (Gbps) GPUDirect RDMA Peer to peer GPU Archiviazione dell’istanza (TB) Larghezza di banda EBS (Gb/s)
p5.48xlarge 192 2 8 H100 640 GB
HBM3
EFA da 3200 Gb/s NVSwitch a 900 Gb/s 8 x 3.84 SSD NVMe 80
p5e.48xlarge 192 2 8 H200 1128 GB
HBM3e
EFA da 3.200 Gb/s NVSwitch a 900 Gb/s 8 x 3.84 SSD NVMe 80

Nozioni di base sui casi d'uso di ML

SageMaker è un servizio completamente gestito per la creazione, l'addestramento e l'implementazione di modelli di ML. Se utilizzato insieme alle istanze P5, consente di dimensionare più facilmente fino a decine, centinaia o migliaia di GPU per addestrare rapidamente un modello su qualsiasi scala senza preoccuparsi di configurare cluster e pipeline di dati.

Le DLAMI forniscono ai ricercatori e agli esperti di ML l'infrastruttura e gli strumenti nel cloud necessari per velocizzare i processi di DL su qualsiasi scala. I Container per il Deep Learning, immagini Docker preinstallate con framework di DL, semplificano l'implementazione degli ambienti di ML personalizzati poiché consentono di saltare il complicato processo di creazione e ottimizzazione degli ambienti ex novo.

Se preferisci gestire i tuoi carichi di lavoro containerizzati tramite i servizi di orchestrazione dei container, puoi implementare le istanze P5 con Amazon EKS o Amazon ECS.

Nozioni di base sull'High Performance Computing in AWS

Le istanze P5 sono una piattaforma ideale per eseguire simulazioni ingegneristiche, finanza computazionale, analisi sismiche, modellazione molecolare, genomica, renderizzazione e altri carichi di lavoro HPC basati su GPU. Le applicazioni HPC spesso richiedono prestazioni di rete elevate, archiviazione veloce, grandi quantità di memoria e funzioni di elaborazione di alto livello, oppure tutte queste caratteristiche insieme. Le istanze P5 supportano EFAv2, che consente alle applicazioni HPC che utilizzano Message Passing Interface (MPI) di dimensionarsi a migliaia di GPU. Batch AWS e AWS ParallelCluster consentono agli sviluppatori HPC di creare e dimensionare rapidamente applicazioni HPC distribuite.

Ulteriori informazioni