Rularea Inferenței Deepseek pe un M4 MacBook Air implică înțelegerea capacităților de siliciu Apple și a cerințelor specifice ale modelelor Deepseek. Iată o defalcare a ceea ce trebuie să știți:
Prezentare generală a modelelor Deepseek
-Deepseek-V3: Acest model este un model mare de amestec de experți (MOE) cu 671 miliarde de parametri. Acesta a fost rulat cu succes pe un grup de M4 Mac Minis, prezentând eficiența siliconului Apple pentru modele de limbaj mare [1].
- Deepseek R1: Lansat în ianuarie 2025, acest model este open-source și rivals GPT modele. Oferă diverse versiuni cuantificate pentru a reduce cerințele de mărime și hardware, ceea ce face ca acesta să fie mai posibil pentru implementarea locală pe dispozitive precum M4 MacBook Air [2].
Rularea Deepseek pe M4 MacBook Air
Considerații cheie
1. Memoria și dimensiunea modelului: M4 MacBook Air vine de obicei cu mai puțin RAM în comparație cu M4 MAC Mini cluster utilizat pentru DeepSeek-V3. Va trebui să selectați o versiune mai mică sau cuantificată a modelului DeepSeek pentru a se încadra în RAM -ul disponibil [2].
2. Arhitectura memoriei unificate: Arhitectura de memorie unificată de Apple Silicon este benefică pentru rularea în mod eficient a modelelor mari, mai ales atunci când generează răspunsuri pe rând [1].
3. Cuantificarea și selecția modelului: Pentru rularea pe un M4 MacBook Air, puteți lua în considerare versiunile cuantificate ale DeepSeek R1, cum ar fi modelul 14B, care poate rula cu o anumită RAM pentru a se rezerva [2].
Pași pentru a rula Deepseek la nivel local
1. Instalați Ollama: Utilizați Ollama pentru a gestiona LLM -urile locale pe MacBook Air. Vă permite să instalați și să rulați diverse modele, inclusiv Deepseek [2].
2. Alegeți un model: selectați o versiune cuantificată a Deepseek R1 care se încadrează în RAM -ul dvs. MacBook Air. Modele precum Deepseek-R1-Distill-QWEN-14B sunt opțiuni adecvate [2].
3. Rulați modelul: Utilizați comenzi precum `exo rulează DeepSeek-R1--Devices M4-Pro, M4-Max-Quantization 4-bit` pentru a rula modelul cu cuantificare pentru o performanță mai bună pe cipurile din seria M [4].
Concluzie
Rularea inferenței Deepseek pe un M4 MacBook Air este posibilă cu selecția și cuantificarea potrivită a modelului. Arhitectura de memorie unificată a Apple Silicon oferă un avantaj de performanță, în special pentru scenariile de generare cu un singur răspuns. Cu toate acestea, RAM limitată în comparație cu configurațiile serverului înseamnă că va trebui să optați pentru modele mai mici sau cuantificate pentru a asigura o funcționare lină.
Citări:[1] https://digialps.com/deepseek-v3-on-m4-mac-blazing-fast-inferrence-on-apple-silicon/
[2] https://abedt.com/blog/running-deepseek-on-an-m4-pro-macbook/
.
[4] https://dev.to/mehmetakar/5-ways-to-run-llm-locally-on-mac-cck
[5] https://www.youtube.com/watch?v=u99GC7S4LUA
[6] https://www.yahoo.com/tech/beginning-end-deepseek-goes-100-183100522.html
[7] https://www.youtube.com/watch?v=wbq2ydpodnw
[8] https://forums.macrumors.com/threads/m4-max-silicon-and-running-llms.2448348/