Чтобы настроить LM Studio для DeepSeek, выполните следующие шаги:
1. Скачать и установить LM Studio:
- Посетите веб -сайт LM Studio и загрузите соответствующую версию для вашей операционной системы (Windows, MacOS или Linux). Установите его, следуя инструкциям на экране.
2. Скачать модель DeepSeek R1:
- Откройте LM Studio и перейдите на вкладку «Обнаружение».
- Поиск «DeepSeek R1» и выберите версию, совместимую с вашей системой. Если вы используете Mac с Apple процессорами, выберите опцию MLX; Для Windows или Linux выберите опцию GGUF.
3. Загрузите модель:
- После загрузки перейдите в раздел «Локальные модели» в LM Studio. Выберите DeepSeek R1 и нажмите «Загрузиться», чтобы подготовить модель для использования.
4. Запустите локальный сервер:
- На вкладке «Разработчик» LM Studio включите параметр START Server. Это инициирует сервер, что сделает DeepSeek доступным по адресу `http: // localhost: 1234`.
5. Интегрируйте с кодом Visual Studio (VSCODE):
- Откройте VSCODE и установите любые необходимые расширения, которые позволяют интегрировать локальные модели.
- Доступ к настройкам расширения и установите провайдера API в «LM Studio». Введите `http: // localhost: 1234` в качестве базового URL для подключения VSCODE с вашей локальной моделью DeepSeek.
Следуя этим шагам, вы сможете успешно настроить LM Studio для DeepSeek и начать использовать ее в своих проектах.
Цитаты:[1] https://dev.to/dwtoledo/how-to-use-deepseek-r1-for-fre-in-visual-studio-code-with-cline-or-ro-code-3an9
[2] https://www.youtube.com/watch?v=ajzocj9yzjm
[3] https://www.youtube.com/watch?v=8OHCU2FMHDM
[4] https://www.reddit.com/r/machinelearning/comments/1i9xwbr/r_learn_how_to_run_deepseekr1_locally_a_free/
[5] https://www.reddit.com/r/selfosted/comments/1i6ggyhh/got_deepseek_r1_running_locally_full_setup_guide/
[6] https://news.ycombinator.com/item?id=42768072
[7] https://www.youtube.com/watch?v=51AYF_39SBU
[8] https://lmstudio.ai/blog/lmstudio-v0.3.7