Per creare un prompt per DeepSeek R1 in N8N, segui questi passaggi:
Passaggio 1: installare il nodo DeepSeek in N8N
Innanzitutto, assicurati di avere N8N installato. Quindi, vai su Impostazioni> Nodi comunitari> Installa un nodo della community. Nel campo Nome del pacchetto NPM, digitare "N8N-NODES-DEEPseek", selezionare la casella Riconoscimento dei rischi e fare clic su Installa ** [1].Passaggio 2: creare credenziali per DeepSeek
Dopo aver installato il nodo, è necessario creare credenziali per DeepSeek. Vai per creare un nuovo flusso di lavoro e aggiungere un nodo trigger per avviare il flusso. Quindi, aggiungi un servizio facendo clic sul "+" e cercando "DeepSeek". Seleziona il nodo DeepSeek installato [1].Passaggio 3: configurare il nodo DeepSeek
Nel nodo DeepSeek, dovrai configurare le credenziali:- Fare clic su + Crea una nuova credenziale.
- Incolla la tua chiave API DeepSeek nel campo della chiave API.
- Salva la credenziale [1].
Passaggio 4: impostare il prompt
Ora, configura il prompt per DeepSeek R1:- Nel campo del modello, selezionare DeepSeek R1 o la variante del modello specifica che stai utilizzando (ad esempio, DeepSeek-Reasoner per attività di ragionamento logico) [5].
- Nella sezione prompt, è possibile aggiungere messaggi per guidare la risposta dell'intelligenza artificiale. Per esempio:
- Messaggio di sistema: digita una descrizione del ruolo dell'intelligenza artificiale, come "sei un assistente utile".
- Messaggio dell'utente: inserisci la domanda o il prompt che desideri che l'IA risponda, come "Chi sei?" [1].
Passaggio 5: testare il prompt
Infine, prova l'installazione facendo clic sul pulsante PASSAGGIO Test. Ciò invierà il prompt a DeepSeek R1 e visualizzerà la risposta in N8N [1].Considerazioni aggiuntive per DeepSeek R1
DeepSeek R1 è particolarmente utile come agente di pianificazione, dove può generare piani passo-passo in base all'input dell'utente. Questo modello è conveniente e potente per applicazioni basate su chat e attività di automazione [4] [5]. Quando si utilizza DeepSeek R1, assicurati di comprendere le sue capacità e limitazioni, come il tempo di elaborazione, che potrebbero non essere adatti a tutte le applicazioni in tempo reale [1] [4].Per configurazioni più complesse, come l'integrazione con Ollama o l'utilizzo di Docker per l'auto-hosting, fare riferimento a risorse aggiuntive che forniscono guide dettagliate su queste configurazioni [2] [7].
Citazioni:
[1] https://dev.to/dwtoledo/integring-deepseek-into-n8n-low-cost-ai-tautomations-11ge
[2] https://dev.to/docker/self-hosting-ai-workflows-on-mac-deepseek-r1-ollama-n8n-powered-by-docker-4a9k
[3] https://www.youtube.com/watch?v=jyu_0nnnmeg
[4] https://www.youtube.com/watch?v=tjad65ocoe8
[5] https://blog.elest.io/how-to-use-deepseek-in-in-n8n/
[6] https://www.linkedin.com/pulse/how-automate-anything-deepseek-r1-complete-guide-julian-goldie-irnse
[7] https://www.youtube.com/watch?v=G_LLIQUPTSE
[8] https://www.youtube.com/watch?v=4zk-bp9atpq
[9] https://www.skool.com/ai-automation-society/new-video-how-to-acttual-build-agents-with-deepseek-n-n8n-without-openrouter