„Deepseek-V3“, ypač 671 milijardo parametrų modelis, parodė įspūdingą našumą, kai veikia „M4 Mac Minis“ klasteryje. Ši sąranka panaudoja „Apple Silicon“ galimybes pasiekti greitą išvadą, todėl tai yra pastebimas laimėjimas didelių kalbų modelių (LLMS) srityje. Štai kaip jo našumas yra lyginamas su kitais AI modeliais:
„M4 Mac“ klasterio našumas
„Deepseeek-V3“ „M4 Mac Minis“ demonstruoja nepaprastą efektyvumą dėl savo ekspertų mišinio (MOE) architektūros. Ši architektūra leidžia modeliui suaktyvinti tik kiekvienos užduoties parametrų pogrupį, žymiai sumažinant skaičiavimo reikalavimus, palyginti su tankiais modeliais, tokiais kaip LLAMA 70B. Nepaisant to, kad turi 671 milijardą parametrų, „Deepseek-V3“ gali naudoti tik apie 37 milijardus vienam prieigos raktui generuoti, o tai prisideda prie jo greito našumo [1].
palyginimas su lama 70b
Stebinančiame posūkyje „Deepseeek-V3“ su 671 milijardo parametrų toje pačioje M4 MAC sąrankoje pralenkia „LLAMA 70B“. Tai priskiriama MOE architektūrai, kuri leidžia „Deepseek-V3“ greičiau sugeneruoti žetonus, naudojant mažesnį kiekvienos užduoties parametrų pogrupį. LLAMA 70B, būdamas tankus modelis, naudoja visus jo parametrus kiekvienai žetonų generavimui, todėl šioje specifinėje sąrankoje atsiranda lėčiau, palyginti su „Deepseek-V3“ [1].
palyginimas su GPT-4o
„Deepseek-V3“ tam tikrose srityse parodė konkurencinius rezultatus prieš GPT-4o. Tai parodė puikų samprotavimo ir matematinių problemų sprendimo užduočių atlikimą, o tai pastebėta, atsižvelgiant į jo ekonomišką vystymąsi ir eksploatavimo efektyvumą. Tačiau GPT-4o išlieka kodavimo užduotimis etalonu, nors „DeepSeeek-V3“ yra perspektyvi alternatyva [3].
palyginimas su „Deepseek-R1“
„Deepseek-R1“ yra skirtas sudėtingoms problemų sprendimo ir samprotavimo užduotims, todėl jis yra tinkamesnis užduotims, kurioms reikalinga loginė analizė ir struktūrizuoti sprendimai. Priešingai, „Deepseeek-V3“ puikiai moka sąveiką realiuoju laiku dėl savo MOE architektūros, kuri leidžia greičiau reaguoti. Nors V3 yra idealus tokioms užduotims kaip turinio kūrimas ir atsakymas į bendrą klausimą, R1 yra geriau pritaikytas užduotims, kurioms reikia gilesnių samprotavimų ir loginių išskaičiavimų [2].
veiklos efektyvumas ir išlaidos
„Deepseek-V3“ suteikia didelių išlaidų pranašumų, kurių mokymo išlaidos yra maždaug 5,5 mln. USD, daug mažesnė nei palyginami modeliai. Jo veiklos efektyvumas taip pat sumažina energijos suvartojimą ir greitesnį apdorojimo laiką, todėl tai yra patraukli galimybė aplinkai su išteklių apribojimais [3]. Tačiau, kalbant apie greitį ir vėlavimą, „Deepseek-V3“ paprastai yra lėtesnis nei vidutiniai modeliai, mažesnis išėjimo greitis ir didesnis latentinis latentinis, palyginti su kai kuriais kitais AI modeliais [5].
Apskritai, „Deepseek-V3“ „M4 Mac“ demonstruoja įspūdingą našumą dėl savo efektyvios architektūros ir „Apple Silicon“ galimybių. Nors, palyginti su kitais modeliais, jis gali neišspręsti visose srityse, tačiau jo stipriosios pusės atliekant specifines užduotis ir ekonomiškai efektyvumas tampa vertingu pasirinkimu įvairioms programoms.
Citatos:[1] https://digialps.com/deepseek-v3-on-m4-mac-blazing fast-inference-on-apple-silicon/
[2] https://www.datacamp.com/blog/deepseek-r1-vs-v3
[3] https://618Media.com/en/blog/comparling-deepseek-v3-with-ther-ai-models-a-review/
[4] https://forum.devtalk.com/t/deepseek-671b-running-on-a-custer-of-8-mac-mini-pros-with-64gb-ram-085709
[5] https://artifialanalysis.ai/models/deepseek-v3
[6] https://thezvi.substack.com/p/deekseek-v3-the-six-million-dollar
[7] https://www.reddit.com/r/localllama/comments/1hne97k/running_deepseekv3_on_m4_mac_mini_ai_cluster_671b/
[8] https://www.reddit.com/r/localllama/comments/1i8rujw/notes_on_deepseek_r1_just_how_how_it_is_compared/