Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Onko Pytorch Lightningin tarpeen erityisiä riippuvuuksia TPU: n kanssa


Onko Pytorch Lightningin tarpeen erityisiä riippuvuuksia TPU: n kanssa


Pytorch -salaman käyttämiseksi TPU: n kanssa tarvitaan useita erityisiä riippuvuuksia ja kokoonpanoja:

1. Pytorch XLA: Tämä kirjasto on ratkaisevan tärkeä Pytorchin rajaamiseksi TPUS: n kanssa. Sinun on asennettava Pytorch XLA -pyörä, joka tehdään tyypillisesti käyttämällä komentoja, kuten `! Pip asenna pilvi-tpu-client == 0.10`, mitä seuraa asentamalla sopiva Pytorch XLA -pyörä Googlen säilytystilasta, kuten` torch_xla-1.9-CP37-- CP37M-Linux_X86_64.whl` [3] [5].

2

3. Tähän sisältyy usein näiden pakettien asentaminen TPU -ympäristön asettamisen jälkeen [1] [7].

4 Varmista, että versio on yhteensopiva asennuksen kanssa [1] [7].

5. XRT TPU -laitteen kokoonpano: Cloud TPU VMS: lle sinun on asetettava XRT TPU -laitteen kokoonpano komentojen avulla, kuten `vienti xrt_tpu_config =" LocalService; 0; Localhost: 51011 "` [5].

6. Hajautettu koulutus: Pytorch Lightning käsittelee automaattisesti hajautettua koulutusta TPU: lla, joten hajautettujen näytteenottimien lisäkonfiguraatioita ei yleensä tarvita [5]. Sinun on kuitenkin määritettävä TPU -ytimien lukumäärä käytettäväksi "kouluttajaa" -alustaessasi, kuten `num_tpu_cores = 8` tai` tpu_cores = 8` [1] [5].

Viittaukset:
[1] https://pytorch-lightning.readthedocs.io/en/0.7.6/tpu.html
[2] https://pytorch-lightnning.readthedocs.io/en/0.7.6/introduction_guide.html
.
[4] https://github.com/lightning-ai/pytorch-lighting/discussions/14743
[5] https://lighting.ai/docs/pytorch/1.5.9/advanced/tpu.html
.
.
.