Щоб налаштувати LM Studio для DeepSeek, виконайте ці кроки:
1. Завантажте та встановіть LM Studio:
- Відвідайте веб -сайт LM Studio та завантажте відповідну версію для своєї операційної системи (Windows, MacOS або Linux). Встановіть його, дотримуючись інструкцій на екрані.
2. Завантажте модель DeepSeek R1:
- Відкрийте LM Studio та перейдіть на вкладку Discover.
- Шукайте "DeepSeek R1" та виберіть версію, сумісну з вашою системою. Якщо ви використовуєте Mac з процесорами Apple, виберіть опцію MLX; Для Windows або Linux виберіть параметр GGUF.
3. Завантажте модель:
- Після завантаження перейдіть до розділу Local Models у LM Studio. Виберіть DeepSeek R1 та натисніть на завантаження, щоб підготувати модель для використання.
4. Запустіть локальний сервер:
- На вкладці Developer LM Studio увімкніть параметр START SERVER. Це ініціює сервер, зробивши DeepSeek доступним на `http: // localhost: 1234`.
5. Інтегруйте з кодом Visual Studio (VSCODE):
- Відкрийте VScode та встановіть будь -які необхідні розширення, які дозволяють інтегрувати з локальними моделями.
- Доступ до налаштувань розширення та встановіть постачальника API на "LM Studio". Введіть `http: // localhost: 1234` як базова URL -адреса для з'єднання VScode з локальною моделлю DeepSeek.
Дотримуючись цих кроків, ви повинні мати можливість успішно налаштувати LM Studio для DeepSeek і почати використовувати її у своїх проектах.
Цитати:[1] https://dev.to/dwtoledo/how-to-use-deepseek-r1-fer-free-in-visual-tudio-code-cline-or-roo-code-3an9
[2] https://www.youtube.com/watch?v=ajzocj9yzjm
[3] https://www.youtube.com/watch?v=8OHCU2FMHDM
[4] https://www.reddit.com/r/machinelearning/comments/1i9xwbr/r_learn_how_to_run_deepseekr1_locally_a_free/
[5] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[6] https://news.ycombinator.com/item?id=42768072
[7] https://www.youtube.com/watch?v=51ayf_39sbu
[8] https://lmstudio.ai/blog/lmstudio-v0.3.7