Para executar os modelos Deepseek localmente, os requisitos do sistema variam significativamente com base no tamanho do modelo e nas técnicas de quantização usadas. Aqui estão as principais especificações a serem consideradas:
Requisitos da GPU **
- Tamanho do modelo: os requisitos de VRAM aumentam com o tamanho do modelo. Por exemplo:- Modelo 7b: aproximadamente 16 GB VRAM (FP16) ou 4 GB (quantização de 4 bits).
- Modelo de 16b: cerca de 37 GB VRAM (FP16) ou 9 GB (quantização de 4 bits).
- Modelo 67b: cerca de 154 GB VRAM (FP16) ou 38 GB (quantização de 4 bits).
- Modelo 236b: requer cerca de 543 GB de VRAM (FP16) ou 136 GB (quantização de 4 bits).
- 671b Modelo: precisa de aproximadamente 1.543 GB de VRAM (FP16) ou 386 GB (quantização de 4 bits) [1] [3].
- GPUs recomendadas:
- Para modelos menores como o 7B e o 16B, as GPUs de consumo como o NVIDIA RTX 4090 são adequadas.
-Modelos maiores, particularmente aqueles com mais de 100 bilhões de parâmetros, geralmente requerem GPUs de grau de data center como o NVIDIA H100 ou várias GPUs de consumo de ponta em uma configuração distribuída [1] [3].
Requisitos de CPU e RAM **
- Embora os requisitos específicos da CPU possam variar, recomenda-se um poderoso processador de vários núcleos para lidar com a carga computacional de maneira eficaz. Por exemplo, foram relatadas CPUs de EPYC duplo com configurações substanciais de RAM de RAM como executadas bem [7].- RAM: Um mínimo de 64 GB é aconselhável para executar modelos maiores com eficiência, especialmente ao usar altas contagens de parâmetros que exigem sobrecarga significativa da memória [4] [6].
Requisitos de armazenamento **
- É necessário espaço de disco suficiente para acomodar os arquivos do modelo e quaisquer dados adicionais necessários para o processamento. Dependendo do tamanho do modelo, isso pode variar de dezenas a centenas de gigabytes.Técnicas de otimização **
- Utilizar formatos de precisão mais baixa como FP16 ou INT8 pode ajudar a reduzir o consumo de VRAM sem afetar significativamente o desempenho.- Técnicas como reduzir o tamanho do lote também podem diminuir o uso da memória, mas podem afetar a taxa de transferência [1] [3].
Em resumo, a execução dos modelos Deepseek requer uma consideração cuidadosa dos recursos da GPU, energia da CPU, capacidade de RAM e espaço de armazenamento de acordo com o modelo específico que você pretende implantar.
Citações:[1] https://www.proxpc.com/blogs/gpu-hardware-requirements-guide-for-deepseek-models-in-2025
[2] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[3] https://apxml.com/postss/system-requirements-deepseek-models
[4] https://huggingface.co/deepseek-ai/deepseek-v3-base/discussions/56
[5] https://apxml.com/postss/gpu-requiements-deepseek-r1
[6] https://stackoverflow.com/questions/78697403/system-requirements-for-the-deepseek-coder-v2-instruct/78825493
[7] https://huggingface.co/deepseek-ai/deepseek-r1/discussions/19
[8] https://digialps.com/run-deepseek-r1-locally--ffull-guide-my-honest-review-of-this-free-penai-alternative/