För att skapa en prompt för Deepseek R1 i N8N, följ dessa steg:
Steg 1: Installera Deepseek -noden i N8N
Se till att du har installerat N8N. Gå sedan till Inställningar> Gemenskapsnoder> Installera en community -nod. I fältet NPM Package Name, skriv "N8N-NODES-DEPSEEK", kontrollera rutan som bekräftar riskerna och klickar på Installera ** [1].Steg 2: Skapa referenser för Deepseek
När du har installerat noden måste du skapa referenser för Deepseek. Gå för att skapa ett nytt arbetsflöde och lägg till en triggernod för att starta flödet. Lägg sedan till en tjänst genom att klicka på "+" och söka efter "Deepseek." Välj Deepseek -noden du installerade [1].Steg 3: Konfigurera Deepseek -noden
I Deepseek -noden måste du konfigurera referenser:- Klicka på + Skapa en ny referens.
- Klistra in din Deepseek API -nyckel i API -nyckelfältet.
- Spara referensen [1].
Steg 4: Ställ in prompten
Konfigurera nu uppmaningen för Deepseek R1:- I modellfältet väljer du DeepSeek R1 eller den specifika modellvarianten du använder (t.ex. Deepseek-rseaser för logiska resonemang) [5].
- I det snabba avsnittet kan du lägga till meddelanden för att vägleda AI: s svar. Till exempel:
- Systemmeddelande: Skriv en beskrivning av AI: s roll, till exempel "Du är en användbar assistent."
- Användarmeddelande: Ange frågan eller uppmana du vill att AI ska svara på, till exempel "Vem är du?" [1].
Steg 5: Testa prompten
Slutligen testa din installation genom att klicka på teststegsknappen. Detta skickar prompten till Deepseek R1 och visar svaret i N8N [1].Ytterligare överväganden för Deepseek R1
Deepseek R1 är särskilt användbar som planeringsagent, där det kan generera steg-för-steg-planer baserade på användarinmatning. Denna modell är kostnadseffektiv och kraftfull för chattbaserade applikationer och automatiseringsuppgifter [4] [5]. När du använder Deepseek R1, se till att du förstår dess kapacitet och begränsningar, till exempel behandlingstid, som kanske inte är lämplig för alla realtidsapplikationer [1] [4].För mer komplexa inställningar, till exempel att integrera med Ollama eller använda Docker för självhosting, se ytterligare resurser som ger detaljerade guider på dessa konfigurationer [2] [7].
Citeringar:
[1] https://dev.to/dwtoledo/integrating-deepseek-into-n8n-low-cost-ai-automations-11ge
]
[3] https://www.youtube.com/watch?v=jyu_0nnnmeg
[4] https://www.youtube.com/watch?v=tjad65ocoe8
[5] https://blog.elest.io/how-to-use-deepseek-r1-in-n8n/
]
[7] https://www.youtube.com/watch?v=g_lliqutse
[8] https://www.youtube.com/watch?v=4zk-bp9atpq
]