是的,TPU可以与Pytorch和Keras一起用于大规模AI项目。
pytorch tpus
由于Google的TPU团队与Pytorch开发人员之间的合作,Pytorch可以在TPU上运行。 Pytorch Lightning等工具可以促进这种集成,该工具允许Pytorch代码在TPU上运行而无需修改。 Pytorch Lightning使用XLA(加速线性代数)来翻译不同加速器的计算,从而有效地使用TPU。但是,通常可以通过Google Cloud Services访问TPU,并且不可以作为个人使用的独立硬件购买[1] [3]。tpus上的凯拉斯
Keras是一种多框架API,也可以利用TPU,尤其是与Tensorflow或Jax一起用作后端时。 KERAS模型可以通过将后端切换到支持大规模TPU训练的JAX来轻松适应TPU。这种灵活性使开发人员可以编写可以在各种平台上执行的KERAS代码,包括Google Cloud TPU [2] [5]。但是,并非所有的KERAS操作都与TPU兼容。例如,UPSMPLING2D不完全支持[7]。总而言之,Pytorch和Keras都可以将TPU用于大规模AI项目,但是设置和兼容性可能会根据所选的特定用例和后端框架而有所不同。
引用:[1] https://www.reddit.com/r/machinelearning/comments/faahsp/news_you_can_now_now_run_pytorch_code_on_on_tpus/
[2] https://towardsdatascience.com/multi-framework-ai-ml-development-with-keras-3-cf7be29eb23d/
[3] https://discuss.pytorch.org/t/pytorch-tpu-support/25504
[4] https://www.pickl.ai/blog/pytorch-vs-tensorflow-vs-keras/
[5] https://keras.io/about/
[6] https://massedcompute.com/faq-answers/?question=can+tpus+be+used+with+tensorflow+and+and+pypytorch+for+deep+deep+deep+deapleyning+learlearning+thear+tasks%3f
[7] https://stackoverflow.com/questions/53215477/where-can-iendify-sideify-which-which-keras-methods-methods-are-are-tpu-compatible-methods
[8] https://www.linkedin.com/pulse/comparison-ai-frameworks-tensorflow-vs-pytorch-keras-keras-emma-al-naw5f