Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Inferensi Deepseek di M4 MacBook Air


Inferensi Deepseek di M4 MacBook Air


Menjalankan Inferensi Deepseek pada M4 MacBook Air melibatkan pemahaman kemampuan silikon apel dan persyaratan spesifik dari model Deepseek. Berikut ini rincian dari apa yang perlu Anda ketahui:

Gambaran Umum Model Deepseek

-Deepseek-V3: Model ini adalah model campuran besar-eksperta (MOE) dengan 671 miliar parameter. Ini telah berhasil dijalankan pada sekelompok M4 Mac Minis, menampilkan efisiensi silikon apel untuk model bahasa besar [1].
- Deepseek R1: Dirilis pada Januari 2025, model ini adalah model open-source dan saingan GPT. Ini menawarkan berbagai versi terkuantisasi untuk mengurangi ukuran dan persyaratan perangkat keras, membuatnya lebih layak untuk penyebaran lokal pada perangkat seperti M4 MacBook Air [2].

Menjalankan Deepseek di M4 MacBook Air

Pertimbangan utama

1. Ukuran Memori dan Model: M4 MacBook Air biasanya hadir dengan lebih sedikit RAM dibandingkan dengan cluster mini M4 Mac yang digunakan untuk Deepseek-V3. Anda harus memilih versi model Deepseek yang lebih kecil atau terkuantisasi agar sesuai dengan RAM yang tersedia [2].

2. Arsitektur Memori Terpadu: Arsitektur memori terpadu Apple Silicon bermanfaat untuk menjalankan model besar secara efisien, terutama ketika menghasilkan respons satu per satu [1].

3. Kuantisasi dan Pemilihan Model: Untuk berjalan di M4 MacBook Air, Anda dapat mempertimbangkan versi kuantisasi Deepseek R1, seperti model 14B, yang dapat berjalan dengan beberapa RAM untuk cadangan [2].

langkah -langkah untuk menjalankan Deepseek secara lokal

1. Instal Ollama: Gunakan Ollama untuk mengelola LLM lokal di MacBook Air Anda. Ini memungkinkan Anda untuk menginstal dan menjalankan berbagai model, termasuk Deepseek [2].

2. Pilih Model: Pilih versi kuantisasi dari Deepseek R1 yang sesuai dengan RAM MacBook Air Anda. Model seperti Deepseek-R1-Distill-Qwen-14b adalah opsi yang cocok [2].

3. Jalankan model: Gunakan perintah seperti `exo run Deepseek-r1 --devices M4-Pro, M4-Max --Quanisasi 4-bit` untuk menjalankan model dengan kuantisasi untuk kinerja yang lebih baik pada chip seri-m [4].

Kesimpulan

Menjalankan Inferensi Deepseek pada M4 MacBook Air layak dengan pemilihan model dan kuantisasi yang tepat. Arsitektur memori terpadu Apple Silicon memberikan keunggulan kinerja, terutama untuk skenario pembuatan respons tunggal. Namun, RAM terbatas dibandingkan dengan pengaturan server berarti Anda harus memilih model yang lebih kecil atau terkuantisasi untuk memastikan pengoperasian yang lancar.

Kutipan:
[1] https://digialps.com/deepseek-v3-on-m4-mac-blazing-fast-nference-on-apple-silicon/
[2] https://abedt.com/blog/running-deepseek-on-an-m4-pro-macbook/
[3] https://www.reddit.com/r/localllama/comments/1hne97k/running_deepseekv3_on_m4_mac_mini_ai_cluster_671b/
[4] https://dev.to/mehmetakar/5-ways-to-run-llm-locally-on-mac-cck
[5] https://www.youtube.com/watch?v=U99GC7S4LUA
[6] https://www.yahoo.com/tech/beginning-end-deepseek-goes-100-183100522.html
[7] https://www.youtube.com/watch?v=wbq2ydpodnw
[8] https://forums.macrumors.com/threads/m4-max-silicon-and-running-llms.2448348/