DeepSeek sniegums humāniskajā etalonā parāda ievērojamu priekšrocību salīdzinājumā ar GPT-4. Konkrēti, DeepSeek sasniedza Humaneval caurlaides ātrumu 73,78%, kas novērtē kodēšanas iespējas, savukārt GPT-4 līdzīgos novērtējumos ieguva aptuveni 67% [1] [2]. Tas norāda, ka DeepSeek ir efektīvāks kodēšanas problēmu radīšanā un risināšanā, salīdzinot ar GPT-4.
Efektivitātes ziņā DeepSeek izmanto Experts maisījuma (MOE) arhitektūru, kas aktivizē tikai 37 miljardus no tā kopējā 671 miljarda parametru uzdevumiem, ļaujot tai saglabāt augstu veiktspēju ar ievērojami zemākām skaitļošanas izmaksām, kā ziņots, 214,3 reizes lētāks nekā GPT -4 marķieru apstrādei [1] [2]. Šī efektivitāte nozīmē ātrāku un precīzāku kodu ģenerēšanu un atkļūdošanas iespējas, padarot DeepSeek par pārliecinošu izvēli izstrādātājiem.
Turklāt DeepSeek konteksta logs ir ievērojami lielāks pie 128k žetoniem, salīdzinot ar GPT-4 maksimālo 8K marķieri, ļaujot apstrādes laikā apstrādāt plašākas ieejas [1] [2]. Šī funkcija var būt īpaši izdevīga sarežģītiem kodēšanas uzdevumiem, kuriem nepieciešams lielāks konteksts.
Kopumā DeepSeek ne tikai pārspēj GPT-4 attiecībā uz humanevāla kodēšanas veiktspēju, bet arī piedāvā ievērojamas izmaksas un efektivitātes ieguvumus, sevi pozicionējot kā spēcīgu alternatīvu lielo valodu modeļu ainavā.
Atsauces:[1.]
[2] https://docsbot.ai/models/compare/gpt-4/deepseek-v3
[3] https://www.reddit.com/r/chatgptcoding/comments/1fdrhbx/new_deepseekv25_model_scores_89_on_humaneval/
[4] https://aclanthology.org/2024.findings-cl.471.pdf
[5] https://deepseekcoder.github.io
[6] https://news.ycombinator.com/item?id=41999151
[7] https://www.deepseek.com
[8] https://www.reddit.com/r/localllama/comments/1hr56e3/notes_on_deepseek_v3_is_it_truly_better_than/