Ja, du kan använda Deepseek R1 för både lokala och molninställningar i N8N. Här är en detaljerad översikt över hur man integrerar Deepseek R1 i N8N för båda scenarierna:
Lokal installation
För att köra Deepseek R1 lokalt måste du ställa in modellen på din maskin. Detta tillvägagångssätt erbjuder fullständig integritet och är gratis, eftersom du inte behöver några molntjänster eller licenser.
1. Installera Ollama: Ollama är ett verktyg som låter dig köra AI -modeller lokalt. Du kan ladda ner den från [Ollamas webbplats] (https://ollama.com/download). Det här verktyget stöder olika modellstorlekar, så att du kan välja en som passar dina hårdvarufunktioner.
2. Ladda ner och kör Deepseek R1 -modellen: Använd Ollama för att ladda ner och köra Deepseek R1 -modellen. Du kan börja med mindre modeller som 1.5B- eller 8B -versionerna för bättre prestanda på mindre kraftfull hårdvara. Till exempel kan du köra 8B-versionen med kommandot `AMA Runseek-R: 8` i din terminal.
3. Ställ in ett lokalt gränssnitt: Verktyg som Chatbox tillhandahåller ett användarvänligt gränssnitt för att interagera med dina lokalt körda AI-modeller. Du kan konfigurera Chatbox för att använda Ollama API -värden, som vanligtvis standard är till `http: //127.0.0.1: 11434`.
4. Integrera med N8N: För att integrera denna lokala installation med N8N, skulle du vanligtvis använda en anpassad nod eller en webhook för att kommunicera med din lokala AI -server. Detta handlar om att ställa in en lokal server som exponerar en API -slutpunkt för N8N att interagera med.
Cloud Setup
För en molninställning använder du Deepseeks Cloud API, som kräver en API -nyckel men erbjuder enklare integration med N8N.
1. Generera API -nyckel: Gå till Deepseeks plattform och generera en API -nyckel. Denna nyckel är avgörande för att autentisera dina förfrågningar till Deepseek Cloud API.
2. Installera Deepseek-noden i N8N: I N8N navigerar du till Inställningar> Community Nodes och installera noden "N8N-NODES-DEPSEEK". Denna nod låter dig interagera med Deepseeks moln -API direkt inom N8N.
3. Konfigurera referenser: Skapa en ny referens i N8N genom att klistra in din API -nyckel. Du måste också ange bas -URL: n för Deepseek API och välja den modell du vill använda (t.ex. Deepseek R1).
4. Skapa arbetsflöde: Ställ in ett arbetsflöde i N8N som använder Deepseek -noden. Du kan utlösa detta arbetsflöde med olika ingångar, till exempel chattmeddelanden eller andra händelser, och använda Deepseek R1 för att generera svar eller utföra uppgifter som kräver komplexa resonemang.
Jämförelse av lokala och molninställningar
- Lokal installation: Erbjuder fullständig integritet och är gratis, men kräver mer tekniska installations- och hårdvaruresurser. Det är idealiskt för projekt där datasekretess är av största vikt.
- Molninställning: Enklare att ställa in och integrera med N8N, men kräver en API -nyckel och kan medföra kostnader beroende på användning. Det är lämpligt för projekt där skalbarhet och enkel integration är nyckeln.
Båda inställningarna kan vara effektiva beroende på dina specifika behov och begränsningar.
Citeringar:
[1] https://www.youtube.com/watch?v=tjad65ocoe8
[2] https://www.reddit.com/r/selfhosted/comments/1iekz8o/beginner_guide_run_deepseekr1_671b_on_your_own
]
[4] https://dev.to/dwtoledo/integrating-deepseek-into-n8n-low-cost-ai-automations-11ge
[5] https://www.youtube.com/watch?v=-hz08t9hgfu
[6] https://dev.to/shayy/run-deepseek-locally-on-your-laptop-37hl
[7] https://blog.elest.io/how-to-use-deepseek-r1-in-n8n/
[8] https://www.reddit.com/r/n8n/comments/1ib3yv5/geting_started_with_deepseek_r1_groq_custom_node/
[9] https://www.youtube.com/watch?v=g_lliqutse