Du kan bruge Pytorch Lightning med TPU'er, men at køre dem i et lokalt miljø er ikke ligetil. TPU'er er primært tilgængelige på Google Cloud (GCP), Google Colab og Kaggle -miljøer. Disse platforme giver den nødvendige infrastruktur og opsætning til anvendelse af TPU'er med Pytorch Lightning [1] [2].
For at bruge TPU'er i et lokalt miljø, skal du have adgang til en TPU -enhed, som typisk ikke er mulig uden en cloud -opsætning. Du kan dog simulere eller teste dine modeller lokalt ved hjælp af andre acceleratorer som GPU'er, før du implementerer dem på TPU'er i skyen.
Hvis du vil bruge TPU'er, er den mest almindelige tilgang at oprette et projekt på Google Cloud og bruge deres TPU -tjenester. Pytorch Lightning understøtter at køre på TPU'er gennem Pytorch XLA-integrationen, der samler operationer på højt niveau til optimerede operationer for TPU'er [4] [5]. Google Colab tilbyder en gratis og tilgængelig måde at begynde at bruge TPU'er med Pytorch Lightning ved at give et Jupyter -notebook -miljø med TPU -support [1] [3].
Sammenfattende, selvom du ikke let kan bruge TPU'er i et lokalt miljø uden skyinfrastruktur, kan du udnytte cloud -tjenester som Google Colab eller Google Cloud til at bruge TPU'er med Pytorch Lightning.
Citater:[1] https://lightning.ai/docs/pytorch/1.5.9/advanced/tpu.html
[2] https://pytorch-lightning.readthedocs.io/en/1.0.8/tpu.html
)
[4] https://cloud.google.com/blog/products/ai-machine-learning/train-ml-models-with-pytorch-lys-on-tpus
[5] https://pytorch.org/xla/release/2.2/index.html
[6] https://github.com/lightning-i/pytorch-lightning/issues/19274
[7] https://www.datacamp.com/tutorial/pytorch-lightning-tutorial
[8] https://github.com/lightning-i/lightning/issues/16464