Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon 使用私人S3存储桶与拥抱式枢纽时部署过程有何不同


使用私人S3存储桶与拥抱式枢纽时部署过程有何不同


当使用私有S3存储桶与拥抱面轮时,部署过程主要在模型可访问性,安全性和延迟方面有很大不同。

###使用拥抱式枢纽部署

直接从拥抱面中心部署模型涉及通过Internet访问模型。这里是通常如何工作的:

1。模型选择:您从拥抱面轮中选择所需的型号,该模型具有广泛的预训练模型。
2。部署配置:您配置了部署环境,例如选择适当的实例类型并设置必要的基础架构(例如,Azure机器学习或Amazon Sagemaker)。
3.模型下载:在部署期间,该模型将从拥抱面中心下载到您的部署环境。此步骤可能会引入延迟,需要互联网连接。
4.安全考虑:由于通过Internet访问了模型,因此可能存在与数据隐私和合规性有关的安全问题。

###使用私人S3存储桶部署

从私有S3存储桶中部署模型提供了增强的安全性和对部署过程的控制:

1.模型准备:您首先将模型权重从拥抱面枢纽下载并将其上传到您的私人S3存储桶中。此步骤允许进行漏洞扫描,并确保模型安全存储在您的AWS帐户中。
2。部署配置:您将配置与使用拥抱面板类似的部署环境,但您将S3存储桶路径指定为模型源。
3。模型检索:在部署期间,从您的S3存储桶中检索模型,从而减少了延迟,因为该模型靠近您的部署环境(例如,Amazon Sagemaker)。
4.安全性和合规性:这种方法通过将模型权重保留在AWS帐户中,从而增强了安全性,从而可以更好地控制访问和遵守组织政策。

总而言之,与直接从拥抱面枢纽部署相比,使用私有S3存储桶可提供对模型存储和部署,增强安全性并减少延迟的更多控制权。但是,在部署之前,它需要其他步骤将模型上传到S3桶[3]。

引用:
[1] https://support.atlassian.com/bitbucket-cloud/docs/deploy-to-withs-with-s3/
[2] https://learn.microsoft.com/en-us/azure/machine-learning/how-to-deploy-models-models-from-huggingface?view=Azureml-api-2
[3] https://aws.amazon.com/blogs/machine-learning/optimize-hosting-hosting-deepseek-r1-dist--------------------
[4] https://docs.travis-ci.com/user/deployment/s3/
[5] https://www.run.ai/blog/how-to-deploy-hugging-face-models-with-run-ai
[6] https://huggingface.co/blog/introducing-private-hub
[7] https://www.edstem.com/blog/deploying-running-app-s3-cloudfront/
[8] https://huggingface.co/blog/alvarobartt/deploy-from-hub-to-vertex-ai
[9] https://stackoverflow.com/questions/79138919/deploying-llm-from-s3-on-amazon-sagemaker