Aby skonfigurować studio LM dla DeepSeek, wykonaj następujące kroki:
1. Pobierz i zainstaluj LM Studio:
- Odwiedź stronę LM Studio i pobierz odpowiednią wersję systemu operacyjnego (Windows, MacOS lub Linux). Zainstaluj go, postępując zgodnie z instrukcjami na ekranie.
2. Pobierz model Deepseek R1:
- Otwórz LM Studio i przejdź do zakładki Discover.
- Wyszukaj „Deepseek R1” i wybierz wersję kompatybilną z systemem. Jeśli używasz komputera Mac z procesorami Apple, wybierz opcję MLX; W przypadku systemu Windows lub Linux wybierz opcję GGUF.
3. Załaduj model:
- Po pobraniu przejdź do sekcji modeli lokalnych w LM Studio. Wybierz DeepSeek R1 i kliknij załaduj, aby przygotować model do użycia.
4. Uruchom serwer lokalny:
- Na karcie programisty LM Studio włącz opcję Server Server. To zainicjuje serwer, dzięki czemu DeepSeek jest dostępny na `http: // localhost: 1234`.
5. Zintegruj z kodem Visual Studio (vscode):
- Otwórz vscode i zainstaluj wszelkie niezbędne rozszerzenia, które umożliwiają integrację z modelami lokalnymi.
- Uzyskaj dostęp do ustawień rozszerzenia i ustaw dostawcę API na „LM Studio”. Wpisz `http: // localhost: 1234` jako podstawowy adres URL do podłączenia vscode z lokalnym modelem Deepeek.
Postępując zgodnie z tymi krokami, powinieneś być w stanie z powodzeniem skonfigurować LM Studio dla DeepSeek i zacząć korzystać z niego w swoich projektach.
Cytaty:[1] https://dev.to/dwtoledo/how-to-use-deepseek-r1-for-free-in-visual-studio-code-with-cline-or-roo-code-3an9
[2] https://www.youtube.com/watch?v=ajzocj9yzjm
[3] https://www.youtube.com/watch?v=8ohcu2fmhdm
[4] https://www.reddit.com/r/machinelearning/comments/1i9xwbr/r_learn_how_to_run_deepseekr1_locally_a_free/
[5] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[6] https://news.ycombinator.com/item?id=42768072
[7] https://www.youtube.com/watch?v=51ayf_39sbu
[8] https://lmstudio.ai/blog/lmstudio-v0.3.7