A Google Cloud TPU -k használatának összehasonlításának összehasonlítása a saját TPU hardverének megvásárlásához és karbantartásához számos tényezőt tartalmaz:
1. Cloud TPU Költségek: A Google Cloud TPU -k felhőalapú szolgáltatásként érhetők el, azaz csak akkor fizetnek, amikor használják őket. A költség a TPU verziójától és a felhasználási kötelezettségvállalásonként változik. Például egy 512 core TPU V2 POD óránként 384 dollárba kerül, jelentős kedvezményekkel a hosszú távú kötelezettségvállalásokért évente 2,1 millió dollár egyéves kötelezettségvállalás és 4,5 millió dollár három évre [1]. A legújabb TPU V4 óránként körülbelül 8 dollárba kerülhet chipenként, és a nagyszabású konfigurációk, mint például a TPU V4-POD, elérhetik a 32 200 dollárt óránként [2] [3].
2. Saját hardver beszerzése és karbantartása: A TPU -kat nem külön -külön értékesítik személyes használatra; Csak olyan felhőalapú szolgáltatásokon keresztül érhetők el, mint a Google Cloud. Ezt azonban összehasonlíthatja a nagy teljesítményű GPU-k megvásárlásával, amelyeket általában hasonló feladatokhoz használnak. A csúcskategóriás GPU-k, mint például az NVIDIA V100 vagy A100, egységenként 8000 és 15 000 dollár között lehetnek [2]. Ezenkívül a saját hardverének fenntartása magában foglalja az energia, a hűtés, az informatikai költségek és a személyzet jelentős folyamatos költségeit [7].
3. Költség-megfontolások: A gyakori vagy folyamatos használat esetén a saját hardverének megvásárlása és fenntartása hosszú távon költséghatékonyabb lehet, különösen akkor, ha figyelembe vesszük a tulajdonjog teljes költségét, ideértve az operatív költségeket is. Az alkalmi vagy kisméretű projektek esetében azonban a felhőalapú szolgáltatások, mint például a Google Cloud TPU-k, gazdaságosabbak lehetnek az előzetes tőkeköltségek hiánya és a szükség szerinti méretarányos képesség miatt [7].
Összefoglalva: míg a Cloud TPU-k rugalmasságot és méretezhetőséget kínálnak az előzetes hardverköltségek nélkül, a saját hardverének (például a nagyteljesítményű GPU-k) megvásárlása és fenntartása hosszú távú, intenzív felhasználás szempontjából költséghatékonyabb lehet, figyelembe véve mind a kezdeti, mind az operatív költségeket.
Idézetek:[1] https://www.reddit.com/r/machinelearning/comments/epx5vg/d_google_cloud_tpu_pod_poding_grid_a_512core_tpu/
[2] https://www.datacamp.com/blog/tpu-vs-gpu-ai
[3] https://www.chaotropy.com/why-googles-tpus-are-no-match-for-nvidias-gpus/
[4] https://www.androidpolice.com/what-are-google-cloud-tpus/
[5] https://cloud.google.com/tpu
[6] https://www.syntio.net/en/labs-musings/machine-learning-on-gcp-cp-cp-tpu-vs-cloud-functions/
[7] https://www.dataknobs.com/generativeai/tpu/tpu-gpu-cost.html
[8] https://cloud.google.com/tpu/docs/intro-to-tpu
[9] https://cloudplatform.googleblog.com/2018/06/cloud-tpu-now-thers-predible-pricing-and-global-availity.html