Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Come posso ottimizzare la latenza e il throughput di DeepSeek-R1 sulle istanze GPU AWS


Come posso ottimizzare la latenza e il throughput di DeepSeek-R1 sulle istanze GPU AWS


L'ottimizzazione della latenza e del throughput dei modelli DeepSeek-R1 su istanze GPU AWS comporta diverse strategie che sfruttano i servizi AWS, le configurazioni hardware e le ottimizzazioni dei modelli. Ecco una guida dettagliata per migliorare le prestazioni:

1. Scegli l'hardware giusto **

- Selezione dell'istanza: AWS offre vari istanze GPU, come `ml.g5`,` ml.g6` e `ml.p4d`, ognuno con diversi tipi GPU (ad esempio, Nvidia A10G, L4, L40S e A100). Per i modelli DeepSeek-R1, istanze come `ml.g6e.xlarge` e` ml.p4d.24xlarge` hanno mostrato alte prestazioni a causa delle loro potenti GPU e capacità di memoria [1] [4].
- Conteggio delle GPU: aumentare il numero di GPU per istanza può migliorare significativamente il throughput consentendo il frammento del modello su più GPU. Per grandi modelli come DeepSeek-R1-Distill-LLAMA-70B, si consiglia di consigliarsi istanze con 8 GPU (ad esempio, `ml.g6e.48xlarge`) [4].

2. Tecniche di ottimizzazione del modello **

-Distillazione del modello: l'uso di versioni distillate di DeepSeek-R1, come le varianti di DeepSeek-R1-Distill-Qwen e Llama, può ridurre i requisiti computazionali mantenendo prestazioni accettabili. Questi modelli sono più piccoli e più efficienti, rendendoli adatti per GPU di fascia bassa [1] [3].
- Quantizzazione e precisione mista: tecniche come la quantizzazione e la precisione mista (ad es. Usando BFLOAT16) possono ridurre l'utilizzo della memoria e migliorare la velocità di inferenza senza una significativa perdita di precisione [1].

3. Servizi e strumenti AWS **

- Amazon SageMaker: utilizza il processo di distribuzione semplificato di SageMaker per i modelli DeepSeek-R1. Supporta abbracciare l'inferenza della generazione di testo facciale (TGI), che semplifica l'hosting e l'ottimizzazione del modello [1].
- DeepSpeed: sfrutta la tecnologia DeepSpeed ​​per ottimizzare l'utilizzo delle risorse sulle istanze EC2. Ciò può portare a prestazioni migliori con meno risorse, riducendo i costi [2].

4. Scalabilità e concorrenza **

- Impostazioni di concorrenza: regolare i livelli di concorrenza in base alle esigenze dell'applicazione. Una maggiore concorrenza può aumentare il throughput ma può anche aumentare la latenza se non gestita correttamente [4].
-Scalato automatico: implementare la scala automatica utilizzando servizi AWS come il ridimensionamento automatico EC2 o le funzionalità di ridimensionamento integrate di SageMaker per regolare dinamicamente i conteggi delle istanze in base alle richieste di carico di lavoro [6].

5. Ottimizza le operazioni di input/output **

- Lunghezza del token di input: valutare le prestazioni dei modelli con diverse lunghezze dei token di input. Input più brevi generalmente comportano tempi di inferenza più rapidi, mentre input più lunghi possono richiedere istanze più potenti [1] [4].
- Lunghezza del token di uscita: allo stesso modo, la regolazione del token di uscita può influire sulle prestazioni. Ottimizza questi parametri in base al caso d'uso specifico.

6. Ottimizzazione dei costi **

- Tipi di istanza: prestazioni di bilanciamento e costo selezionando i tipi di istanza che offrono il miglior rapporto di prestazione. Ad esempio, le istanze G4 sono annotate per il loro rapporto costo-efficacia nei carichi di lavoro AI [2].
- istanze riservate e istanze spot: utilizzare istanze riservate per carichi di lavoro prevedibili e istanze spot per lavori batch o attività in cui le interruzioni sono tollerabili per ridurre i costi [3].

Implementando queste strategie, è possibile ottimizzare significativamente la latenza e il throughput dei modelli DeepSeek-R1 su istanze GPU AWS.

Citazioni:
5
[2] https://community.aws/content/2shgs4eqeekz32oozn7am5lngex/benefits-of-installing-deepseek-on-an-aws-aws-instance?lang=en
[3] https://community.aws/content/2rhrji6cxba1ib5f3tjsfpadpxs/deploying-deepseek-distill-llama-70b-for-inference-on-aws-graviton4?lang=en
[4] https://aws.amazon.com/blogs/machine-learning/deploy-deepseek-r1-distilled-models-on-amazon-sagemaker-using-a-large-model-inference-container/
[5] https://www.reddit.com/r/selfhosted/comments/1ibl5wr/how_much_money_would_i_need_to_run_r1_deepseek/
[6] https://community.aws/content/2siuccxq3fbz5ntfggtguzui90y2/deepseek-r1-guide-to-running-multiple-variats-on-aws
[7] https://huggingface.co/blog/deepseek-r1-aws
[8] https://aws.amazon.com/blogs/machine-learning/deepseek-r1-model-now-available-in-amazon-bedrock-maketplace-and-amazon-sagemaker-jumpstart/
[9] https://vagon.io/blog/a-pep-by-pep-guide-to-running-deepseek-r1-on-vagon-cloud-desktops