Biaya menggunakan TPU (unit pemrosesan tensor) di Google Cloud dibandingkan dengan GPU (unit pemrosesan grafis) bervariasi berdasarkan beberapa faktor, termasuk pola penggunaan, persyaratan kinerja, dan model spesifik yang dipilih.
** TPU adalah milik Google dan terutama tersedia sebagai layanan cloud, yang berarti pengguna hanya membayar untuk waktu mereka menggunakannya. Ini bisa hemat biaya untuk tugas pembelajaran mesin skala besar karena TPU dioptimalkan untuk operasi tersebut dan dapat mengurangi waktu komputasi secara keseluruhan. Namun, TPU umumnya memiliki biaya per jam yang lebih tinggi dibandingkan dengan GPU. Misalnya, biaya Google Cloud TPU V3 sekitar $ 4,50 hingga $ 8,50 per jam, dan biaya TPU V4 sekitar $ 8,00 per jam [1] [3].
** GPU, di sisi lain, menawarkan lebih banyak fleksibilitas dalam hal opsi pembelian. Mereka dapat dibeli secara individual atau digunakan sebagai layanan cloud dari berbagai penyedia seperti AWS, Azure, dan Google Cloud. GPU kelas atas seperti NVIDIA V100 atau A100 bisa mahal di muka, harganya antara $ 8.000 dan $ 15.000 per unit, tetapi mereka memberikan lebih banyak kontrol dan fleksibilitas [1] [3]. Harga cloud untuk GPU bervariasi, dengan opsi seperti NVIDIA V100 berharga sekitar $ 2,48 per jam di Google Cloud [1].
Untuk tugas AI jangka pendek atau skala besar, TPU mungkin lebih hemat biaya karena kinerja yang dioptimalkan dan berkurangnya waktu komputasi. Namun, untuk proyek jangka panjang atau mereka yang membutuhkan kontrol lebih besar atas perangkat keras, GPU mungkin lebih disukai meskipun biaya dimuka yang lebih tinggi [9]. Selain itu, TPU lebih hemat energi, yang dapat menyebabkan biaya operasional yang lebih rendah dari waktu ke waktu [2].
Kutipan:[1] https://www.datacamp.com/blog/tpu-vs-gpu-ai
[2] https://www.wevolver.com/article/tpu-vs-gpu-in-ai-a-comprehensive-guide-to-their-roles-dimpact-on-artificial-intelligence
[3] https://www.dataknobs.com/generativeai/tpu/tpu-gpu-cost.html
[4] https://cloud.google.com/blog/products/compute/performance-per-dollar-of-ngpus-and-tpus-for-ai-inference
[5] https://www.chaotropy.com/why-googles-tpus-are-no-match-for-nvidias-gpus/
[6] https://openmetal.io/docs/product-guides/private-cloud/tpu-vs-gpu-pros-wons/
[7] https://cloud.google.com/compute/gpus-pricing
[8] https://www.syntio.net/en/labs-musings/machine-learning-on-gcp-cloud-tpu-vs-cloud-functions/
[9] https://www.reddit.com/r/machinelearning/comments/zil35t/d_does_google_tpu_v4_compete_with_gpus_in/