AWS 및 Microsoft Azure에서 DeepSeek-R1의 성능은 속도, 대기 시간, 비용 효율성 및 통합 기능을 포함한 몇 가지 주요 요소를 기반으로 평가할 수 있습니다.
속도 및 대기 시간
-AWS : DeepSeek-R1은 Amazon Bedrock을 통해 AWS에서 사용할 수 있으므로 기업이 모델을 미세 조정하고 배포 할 수 있습니다. AWS의 특정 속도 메트릭은 상세하지 않지만 모델의 일반 성능은 초당 약 25.5 개의 토큰으로 평균 모델에 비해 출력 속도가 느려지는 특징입니다 [1]. 대기 시간은 평균보다 높으며 첫 번째 토큰을받는 데 약 9.71 초가 걸립니다 [1]. 그러나 AWS의 인프라는 사용 된 하드웨어에 따라 성능을 최적화 할 수 있습니다.
-Azure : Azure AI Foundry에서 DeepSeek-R1은 내장 모델 평가 도구와 통합되어 개발자가 출력과 벤치 마크 성능을 빠르게 비교할 수 있습니다 [10]. Azure의 특정 대기 시간 수치는 제공되지 않지만 사용자는 Azure의 Deepseek 모델에 대한 중요한 대기 시간 문제를보고했으며 일부 쿼리는 응답을 생성하는 데 1 분이 걸렸습니다 [6]. 이는 Azure의 성능이 AWS와 유사한 대기 시간 문제에 의해 영향을받을 수 있음을 시사합니다.
비용 효율성
-AWS : AWS 사용자는 Open-Source AI 가격 모델과 일치하는 DeepSeek-R1에 대한 요금 별 가격이 아닌 컴퓨팅 리소스 비용을 지불합니다 [2]. 이 접근법은 대규모 배포의 경우 비용 효율적일 수 있지만 인프라 사용에 따라 달라질 수 있습니다.
- Azure : 마찬가지로, Azure 사용자는 기본 컴퓨팅 파워에 대해 지불하며, 이는 모델이 얼마나 효율적으로 실행되는지에 따라 가변 가격을 이끌어 낼 수 있습니다 [3]. 그러나 Azure의 DeepSeek-R1과의 통합은 OpenAI의 GPT-4O와 같은 독점 모델에 대한 비용 효율적인 대안을 제공합니다 [3].
통합 및 개발 기능
-AWS : AWS는 Universal AI Marketplace 접근 방식을 제공하여 DeepSeek-R1과 같은 다양한 모델을 플랫폼에서 통합 및 미세 조정할 수 있습니다 [3]. 이 유연성은 다양한 AI 모델을 실험하려는 기업에게 유익합니다.
-Azure : Azure AI Foundry는 DeepSeek-R1을 빠른 실험 및 반복을위한 도구와 통합하기위한 신뢰할 수 있고 확장 가능한 플랫폼을 제공합니다 [10]. Microsoft의 광범위한 안전 평가 및 보안 평가는 모델이 엔터프라이즈 표준을 충족하도록합니다 [7].
요약하면 AWS와 Azure는 비슷한 비용 효율성 장점을 가진 DeepSeek-R1을 제공하지만 속도 및 대기 시간과 같은 성능 지표는 특정 인프라 및 사용 패턴에 따라 다를 수 있습니다. Azure와 안전 평가 및 확장 성 도구와의 통합은 엔터프라이즈 배포에 우위를 점할 수있는 반면 AWS의 다양한 모델 오퍼링은 광범위한 AI 요구를 충족시킬 수 있습니다.
인용 :
[1] https://artificialanalysis.ai/models/deepseek-r1
[2] https://campustechnology.com/articles/2025/02/04/aws-microsoft-google-others-make-deepseek-r1-ai-model-available-on-their-platforms.aspx
[3] https://www.ctol.digital/news/microsoft-aws-adopt-deepseek-r1- 효율성-VS-openai-claude-investments/
[4] https://aws.amazon.com/blogs/machine-learning/optimize-hosting-deepseek-distilled-models-with-hugging-face-tgi-amazon-sagemaker-ai/
[5] https://www.datacamp.com/blog/deepseek-r1
[6] https://learn.microsoft.com/en-us/answers/questions/2155368/performance-issue-with-azure-deepseek-high-high-high-r-r
[7] https://techstrong.ai/ai-at-the-ded/deepseek-r1-models-available-through-aws-azure/
[8] https://docs.snowflake.com/en/user-guide/snowflake-cortex/llm-functions
[9] https://iot-analytics.com/winners-losers-generative-ai-value-chain/
[10] https://azure.microsoft.com/en-us/blog/deepseek-r1-is-now-available-on-ai-foundry-and-github/