Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Quais são os requisitos do sistema para executar modelos Deepseek localmente


Quais são os requisitos do sistema para executar modelos Deepseek localmente


Para executar os modelos Deepseek localmente, os requisitos do sistema variam significativamente com base no tamanho do modelo e nas técnicas de quantização usadas. Aqui estão as principais especificações a serem consideradas:

Requisitos da GPU **

- Tamanho do modelo: os requisitos de VRAM aumentam com o tamanho do modelo. Por exemplo:
- Modelo 7b: aproximadamente 16 GB VRAM (FP16) ou 4 GB (quantização de 4 bits).
- Modelo de 16b: cerca de 37 GB VRAM (FP16) ou 9 GB (quantização de 4 bits).
- Modelo 67b: cerca de 154 GB VRAM (FP16) ou 38 GB (quantização de 4 bits).
- Modelo 236b: requer cerca de 543 GB de VRAM (FP16) ou 136 GB (quantização de 4 bits).
- 671b Modelo: precisa de aproximadamente 1.543 GB de VRAM (FP16) ou 386 GB (quantização de 4 bits) [1] [3].

- GPUs recomendadas:
- Para modelos menores como o 7B e o 16B, as GPUs de consumo como o NVIDIA RTX 4090 são adequadas.
-Modelos maiores, particularmente aqueles com mais de 100 bilhões de parâmetros, geralmente requerem GPUs de grau de data center como o NVIDIA H100 ou várias GPUs de consumo de ponta em uma configuração distribuída [1] [3].

Requisitos de CPU e RAM **

- Embora os requisitos específicos da CPU possam variar, recomenda-se um poderoso processador de vários núcleos para lidar com a carga computacional de maneira eficaz. Por exemplo, foram relatadas CPUs de EPYC duplo com configurações substanciais de RAM de RAM como executadas bem [7].
- RAM: Um mínimo de 64 GB é aconselhável para executar modelos maiores com eficiência, especialmente ao usar altas contagens de parâmetros que exigem sobrecarga significativa da memória [4] [6].

Requisitos de armazenamento **

- É necessário espaço de disco suficiente para acomodar os arquivos do modelo e quaisquer dados adicionais necessários para o processamento. Dependendo do tamanho do modelo, isso pode variar de dezenas a centenas de gigabytes.

Técnicas de otimização **

- Utilizar formatos de precisão mais baixa como FP16 ou INT8 pode ajudar a reduzir o consumo de VRAM sem afetar significativamente o desempenho.
- Técnicas como reduzir o tamanho do lote também podem diminuir o uso da memória, mas podem afetar a taxa de transferência [1] [3].

Em resumo, a execução dos modelos Deepseek requer uma consideração cuidadosa dos recursos da GPU, energia da CPU, capacidade de RAM e espaço de armazenamento de acordo com o modelo específico que você pretende implantar.

Citações:
[1] https://www.proxpc.com/blogs/gpu-hardware-requirements-guide-for-deepseek-models-in-2025
[2] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[3] https://apxml.com/postss/system-requirements-deepseek-models
[4] https://huggingface.co/deepseek-ai/deepseek-v3-base/discussions/56
[5] https://apxml.com/postss/gpu-requiements-deepseek-r1
[6] https://stackoverflow.com/questions/78697403/system-requirements-for-the-deepseek-coder-v2-instruct/78825493
[7] https://huggingface.co/deepseek-ai/deepseek-r1/discussions/19
[8] https://digialps.com/run-deepseek-r1-locally--ffull-guide-my-honest-review-of-this-free-penai-alternative/