Para configurar LM Studio para Deepseek, siga estos pasos:
1. Descargue e instale LM Studio:
- Visite el sitio web de LM Studio y descargue la versión apropiada para su sistema operativo (Windows, MacOS o Linux). Instálelo siguiendo las instrucciones en pantalla.
2. Descargue el modelo Deepseek R1:
- Abra LM Studio y navegue hasta la pestaña Discover.
- Busque "Deepseek R1" y seleccione la versión que sea compatible con su sistema. Si está utilizando una Mac con procesadores de Apple, elija la opción MLX; Para Windows o Linux, seleccione la opción GGUF.
3. Cargue el modelo:
- Después de descargar, vaya a la sección de modelos locales en LM Studio. Seleccione Deepseek R1 y haga clic en Cargar para preparar el modelo para su uso.
4. Inicie el servidor local:
- En la pestaña de desarrollador de LM Studio, habilite la opción Start Server. Esto iniciará el servidor, haciendo que Deepseek sea accesible en `http: // localhost: 1234`.
5. Integrar con el código Visual Studio (VScode):
- Abra VScode e instale las extensiones necesarias que permitan la integración con modelos locales.
- Acceda a la configuración de la extensión y establezca el proveedor de API en "LM Studio". Ingrese `http: // localhost: 1234` como URL base para conectar VScode con su modelo local de Deepseek.
Siguiendo estos pasos, debería poder configurar con éxito LM Studio para Deepseek y comenzar a utilizarlo en sus proyectos.
Citas:[1] https://dev.to/dwtoledo/how-to-use-deepseek-r1-for liber-in-visual-studio-code-with-cline-or-roo-code-3an9
[2] https://www.youtube.com/watch?v=ajzocj9yzjm
[3] https://www.youtube.com/watch?v=8ohcu2fmhdm
[4] https://www.reddit.com/r/machinelearning/comments/1i9xwbr/r_learn_how_to_run_deepseekr1_locally_a_free/
[5] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[6] https://news.ycombinator.com/item?id=42768072
[7] https://www.youtube.com/watch?v=51ayf_39sbu
[8] https://lmstudio.ai/blog/lmstudio-v0.3.7