Pour configurer LM Studio pour Deepseek, suivez ces étapes:
1. Télécharger et installer LM Studio:
- Visitez le site Web de LM Studio et téléchargez la version appropriée pour votre système d'exploitation (Windows, MacOS ou Linux). Installez-le en suivant les instructions à l'écran.
2. Téléchargez le modèle Deepseek R1:
- Ouvrez LM Studio et accédez à l'onglet Discover.
- Recherchez "Deepseek R1" et sélectionnez la version compatible avec votre système. Si vous utilisez un Mac avec des processeurs Apple, choisissez l'option MLX; Pour Windows ou Linux, sélectionnez l'option GGUF.
3. Chargez le modèle:
- Après téléchargement, accédez à la section des modèles locaux dans LM Studio. Sélectionnez Deepseek R1 et cliquez sur Charger pour préparer le modèle à utiliser.
4. Démarrez le serveur local:
- Dans l'onglet Developer de LM Studio, activez l'option Start Server. Cela lancera le serveur, ce qui rend Deepseek accessible à `http: // localhost: 1234`.
5. Intégrer avec Visual Studio Code (VScode):
- Ouvrez VScode et installez toutes les extensions nécessaires qui permettent l'intégration avec les modèles locaux.
- Accédez aux paramètres de l'extension et définissez le fournisseur API sur "LM Studio". Entrez `http: // localhost: 1234` comme URL de base pour connecter VScode à votre modèle de profondeur locale.
En suivant ces étapes, vous devriez être en mesure de créer avec succès LM Studio pour Deepseek et de commencer à l'utiliser dans vos projets.
Citations:[1] https://dev.to/dwtoledo/how-to-use-deepseek-r1-for-free-in-visual-studio-code-with-cline-or-roo-code-3an9
[2] https://www.youtube.com/watch?v=ajzocj9yzjm
[3] https://www.youtube.com/watch?v=8OHCU2FMHDM
[4] https://www.reddit.com/r/machinelearning/comments/1i9xwbr/r_learn_how_to_run_deepseekr1_locally_a_free/
[5] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[6] https://news.ycombinator.com/item?id=42768072
[7] https://www.youtube.com/watch?v=51ayf_39sbu
[8] https://lmstudio.ai/blog/lmstudio-v0.3.7