تعتبر sparsecores في وحدات معالجة الموتر (TPUs) مفيدة بشكل خاص لتطبيقات الذكاء الاصطناعي التي تعتمد بشدة على التضمينات ، مثل نماذج توصية التعلم العميقة (DLRMS). تستخدم هذه النماذج على نطاق واسع في الإعلانات وترتيب البحث والمنصات مثل YouTube. Sparsecores تسريع معالجة التضمينات عن طريق تحويل المساحات الفئوية الكبيرة إلى مساحات كثيفة أصغر ، وهو أمر بالغ الأهمية لأنظمة التوصية. على سبيل المثال ، تجعل SparSecores من TPU V4 أسرع 3x من TPU V3 لنماذج التوصية وما يصل إلى 5-30x أسرع من الأنظمة القائمة على وحدة المعالجة المركزية [1] [3].
بالإضافة إلى ذلك ، فإن sparsecores مفيدة في ترتيب أعباء عمل التوصية المتقدمة ، حيث تكون التضمينات الفائقة الشائعة شائعة. يتم تعزيز ذلك بشكل أكبر في نماذج TPU الأحدث مثل Trillium ، والتي تدمج Sparsecores من الجيل الثالث لتحسين الأداء لهذه المهام المحددة [7]. بشكل عام ، يمكن لأي تطبيق AI الذي يتضمن تضمينات معقدة أو هياكل البيانات المتفرقة أن يستفيد بشكل كبير من قدرات sparsecores في TPUs.
الاستشهادات:[1] https://www.kdnuggets.com/2023/04/introducing-tpu-v4-googles-cutting-edge-supercomputer-large-language-models.html
[2] https://www.wevolver.com/article/tpu-vs-gpu-in-ai-a-a-a-commrenment-guide-to--their-droles-and-ipact-on-itificial-intelligence
[3] https://www.vibranium.sg/post/introducing-tpu-v4-google-s-supercomputer-for-large-language-models
[4] https://www.datacamp.com/blog/tpu-vs-gpu-ai
[5] https://cloud.google.com/blog/products/ai-machine-learning/introducing-cloud-tpu-v5p-and-aipercomputer
[6] https://eng.snap.com/training-models-with-tpus
[7]
[8]
[9] https://cloud.google.com/tpu
[10] https://arxiv.org/pdf/2309.08918.pdf