Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Voiko DGX -kipinä käyttää AWS: n tai taivaansinisen kanssa


Voiko DGX -kipinä käyttää AWS: n tai taivaansinisen kanssa


Henkilökohtainen AI -supertietokone NVIDIA DGX Spark on suunniteltu suorittamaan AI -malleja paikallisesti työpöytäympäristössä. Vaikka sitä ei ole integroitu suoraan pilvipalveluihin, kuten AWS tai Azure käyttöönottoon, käyttäjät voivat kehittää ja hienosäätää malleja DGX-kipinällä ja ottaa ne sitten käyttöön pilvipalveluihin tuotantoa varten. Näin sitä voidaan käyttää yhdessä AWS: n ja Azuren kanssa:

Integraatio pilvipalveluihin

1. Kehitetään ja käyttöönoton työnkulku: Käyttäjät voivat hyödyntää DGX-kipinää kehittääkseen, hienosäätää ja testata AI-malleja paikallisesti. Kun mallit ovat valmiita, ne voidaan ladata pilvipalveluihin, kuten AWS tai Azure laajamittaisen käyttöönoton ja päätelmän saavuttamiseksi. Tämä lähestymistapa antaa kehittäjille mahdollisuuden työskennellä tehokkaasti paikallisessa ympäristössä ennen pilvessä.

2. NVIDIA DGX Cloud: Vaikka DGX -kipinä itsessään ei ole pilvipalvelu, NVIDIA tarjoaa DGX Cloud -alustan, joka on saatavana AWS: llä, Azuressa ja muilla pilvipalvelujen tarjoajilla. DGX Cloud tarjoaa skaalautuvan pääsyn NVIDIA: n edistyneisiin GPU: iin, jolloin käyttäjät voivat kouluttaa ja ottaa käyttöön AI -malleja pilvessä. Vaikka DGX-kipinä on tarkoitettu paikalliselle kehitykselle, DGX Cloudia voidaan käyttää pilvipohjaisiin AI-työmääriin.

3. AWS -integrointi: AWS tarjoaa erilaisia ​​työkaluja ja palveluita AI -kehitykseen, kuten Amazon Sagemaker mallin käyttöönottoon ja AWS -erälle eräpäätöksille. Käyttäjät voivat kehittää malleja DGX Sparkissa ja ottaa ne käyttöön sitten SAGEMAKER-päätepisteillä reaaliaikaisten päätelmien vuoksi. Lisäksi AWS tarjoaa skaalautuvia tallennusratkaisuja, kuten Amazon S3, joita voidaan käyttää suurten tietojoukkojen tallentamiseen ja hallintaan.

4. Azure -integraatio: Azure tarjoaa samanlaisia ​​ominaisuuksia Azure ML: llä mallin käyttöönottoon ja Azure Kubernetes -palveluun (AKS) skaalautuvan mallin hallintaan. Käyttäjät voivat kehittää malleja paikallisesti DGX -kipinällä ja ottaa ne sitten käyttöön Azureen tuotantoa varten hyödyntämällä Azuren skaalautuvia säilytysratkaisuja, kuten Azure Blob -varasto.

Yhteenvetona voidaan todeta, että vaikka DGX-kipinä ei ole suoraan integroitu AWS: n tai Azureen kanssa, se täydentää näitä pilviympäristöjä antamalla käyttäjille mahdollisuuden kehittää ja hienosäätää AI-malleja paikallisesti ennen niiden käyttöönottoa pilveen laajamittaisen tuotannon ja päätelmien saavuttamiseksi.

Viittaukset:
.
[2] https://www.datacenterdyynamics.com/en/news/nvidia-dgx-cloud-now-avable-via-aws/
.
[4] https://www.aquasec.com/cloud-native-academy/cspm/ai-workloads/
.
.
[7] https://docs.nvidia.com/dgx-cloud/run-ai/latest/appendix.html
[8] https://blogs.nvidia.com/blog/aws-reinvent-ai-robotics-quantum-software/
[9.
[10.
.