Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Como funciona a escala automática para o Deepseek-R1 no Sagemaker


Como funciona a escala automática para o Deepseek-R1 no Sagemaker


A escala automática dos modelos Deepseek-R1 no Amazon Sagemaker é um recurso crítico que permite que esses grandes modelos de idiomas ajustem dinamicamente seus recursos com base no volume de solicitações de entrada. Essa capacidade é essencial para manter a capacidade de resposta, confiabilidade e eficiência de custos em aplicativos do mundo real. Aqui está uma visão geral detalhada de como a escala automática funciona para o Deepseek-R1 no Sagemaker:

Visão geral da escala automática

A escala automática no Sagemaker foi projetada para ajustar automaticamente o número de instâncias com base na carga de trabalho. Para os modelos Deepseek-R1, isso significa que os financiários do Sagemaker podem escalar horizontalmente para lidar com o aumento do tráfego adicionando mais instâncias. Por outro lado, durante períodos de baixa demanda, o Sagemaker pode diminuir para zero instâncias, otimizando assim o uso de recursos e reduzindo os custos.

componentes-chave da escala automática

1. Balanceamento de carga: Os terminais do Sagemaker suportam o balanceamento automático de carga, que distribui solicitações recebidas em várias instâncias. Isso garante que nenhuma instância única esteja sobrecarregada, mantendo um desempenho consistente mesmo em condições de carga alta.

2. Políticas de escala: os usuários podem definir políticas de escala com base em métricas específicas, como utilização da CPU ou latência de solicitação. Essas políticas determinam quando aumentar ou diminuir. Para os modelos Deepseek-R1, as métricas comuns podem incluir latência de ponta a ponta, tokens de taxa de transferência, tempo para o primeiro token e latência entre toque.

3. Tipos de concorrência e instância: os modelos Deepseek-R1 podem ser implantados em vários tipos de instância, cada um com diferentes configurações de GPU (por exemplo, 1, 4 ou 8 GPUs por instância). A escolha do tipo de instância afeta o desempenho e a escalabilidade do modelo. Ao selecionar tipos de instância apropriados e configurar os níveis de simultaneidade, os usuários podem otimizar a capacidade de resposta e eficiência do modelo.

Processo de implantação

Para implantar modelos Deepseek-R1 com escala automática no Sagemaker, os usuários normalmente seguem estas etapas:

-Seleção do modelo: Escolha a variante do modelo Deepseek-R1 apropriada, como as versões destiladas (por exemplo, Deepseek-R1-Distill-llama-8b), que oferecem um equilíbrio entre desempenho e eficiência.

- Configuração do terminal: Configure um terminal de sagemaker com o modelo selecionado. Isso envolve especificar a localização do modelo (por exemplo, abraçar o hub de rosto ou um balde S3 privado), configurar variáveis ​​de ambiente e definir o tipo de instância e a contagem inicial da instância.

-Configuração de escala automática: Defina políticas de escala automática com base nas métricas desejadas (por exemplo, utilização da CPU). Isso garante que o terminal escala dinamicamente em resposta a mudanças na carga de trabalho.

- Monitoramento e otimização: monitore continuamente o desempenho do endpoint e ajuste as políticas de escala conforme necessário para manter o desempenho ideal e a eficiência de custos.

benefícios da escala automática para Deepseek-R1

- Eficiência de custos: Ao diminuir durante períodos de baixa demanda, as organizações podem reduzir significativamente os custos associados à execução de grandes modelos de idiomas.
- Responsabilidade melhorada: a escala automática garante que o modelo permaneça responsivo mesmo em condições de alta carga, aprimorando a experiência do usuário.
- Gerenciamento simplificado: a infraestrutura gerenciada da Sagemaker simplifica o processo de implantação e escala, permitindo que os desenvolvedores se concentrem no desenvolvimento de modelos e na integração de aplicativos, em vez do gerenciamento de infraestrutura.

No geral, a escala automática dos modelos Deepseek-R1 no Sagemaker fornece uma maneira robusta e eficiente de implantar modelos de linguagem avançada, garantindo que eles possam lidar com cargas de trabalho variadas, mantendo o alto desempenho e a relação custo-benefício.

Citações:
[1] https://aws.amazon.com/blogs/machine-learning/deploy-deepseek-r1-distilled-models-on-amazon-sagemaker-using-a-large-model-inference-container/
[2] https://blogs.cisco.com/security/evaluating-security-bisk-in-deepseek-and-other-frontier-reasoning-models
[3] https://repost.aws/questions?view=all&sort=recent&page=eyj2ijoylcjuiJoimxfkulbzbgfwotbz Qxfgakl5nzbxut09iwidci6ilfjbxdxdlptbtrgzkhzkvprjlwsstza2hsmdgyMutjwe1rdhkzse5snfk9in0
[4] https://aws.amazon.com/blogs/machine-learning/optimize-hosting-deepseek-r1-distilled-models-with--igging--tgi-on-amazon-sagemaker-ai/
[5] https://www.byteplus.com/en/topic/383390
[6] https://repost.aws/questions?view=all&sort=recent&page=eyj2ijoylcjuiJoiCp4Cuorys9pt29Q aehntjH6NDY0DZ09IIWIDCI6INNVCUNVRMFIMFQ0OTLUC1V5MKFTAWJPWMJVTHLKOFJMTTRXD3YVYZRTCMC9in0
[7] https://www.oneclickitsolution.com/cencerofexcellence/aiml/deploy-deepseek-r1-amazon-sagemaker-guide
[8] https://crossasyst.com/blog/deepseek-r1-on-aws-bedrock/
[9] https://community.aws/content/2z6dlaohx12yunoeas7qb5yth0q/leveraging-deepseek-r1-on-aws?lang=en