将使用Google Cloud TPU与购买和维护自己的TPU硬件的成本进行比较,涉及几个因素:
1。CloudTPU成本:Google Cloud TPU可作为云服务提供,这意味着您仅在使用它们的时间付费。成本因TPU版本和使用承诺而异。例如,一个512核TPU V2 POD每小时每小时的价格为384美元,长期承诺的折扣为每年210万美元,一年一年的承诺和三年的450万美元[1]。最新的TPU V4每芯片每小时的价格约为每小时8美元,大规模的配置(例如TPU V4-POD)每小时可达到$ 32,200 [2] [3]。
2。购买和维护自己的硬件:TPU并非单独出售供个人使用;它们仅通过诸如Google Cloud之类的云服务提供。但是,您可以将其与购买高性能GPU进行比较,该GPU通常用于类似的任务。像NVIDIA V100或A100这样的高端GPU的价格在每单位$ 8,000至15,000美元之间[2]。此外,维护自己的硬件涉及电力,冷却,开销和人员的持续持续成本[7]。
3。成本注意事项:从长远来看,对于频繁或持续使用,购买和维护自己的硬件可能会更具成本效益,尤其是在考虑总拥有成本(包括运营费用)时。但是,对于偶尔或小规模的项目,由于缺乏前期资本成本和根据需要进行扩展的能力,诸如Google Cloud TPU之类的云服务可能会更加经济[7]。
总而言之,尽管Cloud TPU提供了灵活性和可扩展性,而无需前期硬件成本,但考虑到初始费用和运营费用,购买和维护自己的硬件(例如高性能GPU)可能更具成本效益。
引用:[1] https://www.reddit.com/r/machinelearning/comments/epx5vg/d_google_cloud_cloud_tpu_pod_pod_pricing_grid_a_512core_tpu/
[2] https://www.datacamp.com/blog/tpu-vs-gpu-ai
[3] https://www.chaotropy.com/why-googles-tpus-are-no-no-match-for-nvidias-gpus/
[4] https://www.androidpolice.com/what-are-google-cloud-tpus/
[5] https://cloud.google.com/tpu
[6] https://www.syntio.net/en/labs-musings/machine-learning-on-gcp-cloud-tpu-vs-cloud-functions/
[7] https://www.dataknobs.com/generativeai/tpu/tpu-gpu-cost.html
[8] https://cloud.google.com/tpu/docs/intro-to-tpu
[9] https://cloudplatform.googleblog.com/2018/06/cloud-tpu-now-nowers-preemptible-pricing-pricing-pricing-and-global-availability.html