Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Posso usare DeepSeek R1 per le configurazioni locali e cloud in N8N


Posso usare DeepSeek R1 per le configurazioni locali e cloud in N8N


Sì, puoi usare DeepSeek R1 per le configurazioni locali e cloud in N8N. Ecco una panoramica dettagliata di come integrare DeepSeek R1 in N8N per entrambi gli scenari:

configurazione locale

Per eseguire DeepSeek R1 a livello locale, dovrai impostare il modello sulla macchina. Questo approccio offre una privacy completa ed è gratuito, poiché non è necessario servizi o licenze cloud.

1. Installa Ollama: Ollama è uno strumento che ti consente di eseguire modelli AI a livello locale. Puoi scaricarlo dal [sito Web di Ollama] (https://ollama.com/download). Questo strumento supporta varie dimensioni del modello, in modo da poter scegliere uno adatto alle tue funzionalità hardware.

2. Scarica ed esegui DeepSeek R1 Modello: usa Ollama per scaricare ed eseguire il modello DeepSeek R1. Puoi iniziare con modelli più piccoli come le versioni 1.5B o 8B per prestazioni migliori su hardware meno potenti. Ad esempio, è possibile eseguire la versione 8B utilizzando il comando `AMA Runseek-R: 8` nel tuo terminale.

3. Imposta un'interfaccia locale: strumenti come ChatBox forniscono un'interfaccia intuitiva per interagire con i modelli AI in esecuzione locale. È possibile configurare ChatBox per utilizzare l'host API Ollama, che in genere è predefinito su `http: //127.0.0.1: 11434`.

4. Integrare con N8N: per integrare questa configurazione locale con N8N, in genere utilizzeresti un nodo personalizzato o un Webhook per comunicare con il server AI locale. Ciò comporta l'impostazione di un server locale che espone un endpoint API per N8N con cui interagire.

configurazione cloud

Per una configurazione cloud, utilizzerai l'API cloud di DeepSeek, che richiede una chiave API ma offre una più facile integrazione con N8N.

1. Genera la chiave API: vai sulla piattaforma di DeepSeek e genera una chiave API. Questa chiave è essenziale per l'autenticazione delle tue richieste all'API Cloud DeepSeek.

2. Installa il nodo DeepSeek in N8N: in N8N, navigare su Impostazioni> Nodi comunitari e installare il nodo "N8n-NODES-DEEPSEEK". Questo nodo consente di interagire con l'API cloud di DeepSeek direttamente all'interno di N8N.

3. Configurare le credenziali: creare una nuova credenziale in N8N incollando la chiave API. Dovrai anche specificare l'URL di base per l'API DeepSeek e scegliere il modello che desideri utilizzare (ad esempio, DeepSeek R1).

4. Creare il flusso di lavoro: imposta un flusso di lavoro in N8N che utilizza il nodo DeepSeek. È possibile attivare questo flusso di lavoro con vari input, come messaggi di chat o altri eventi, e utilizzare DeepSeek R1 per generare risposte o eseguire compiti che richiedono ragionamenti complessi.

Confronto di configurazioni locali e cloud

- Impostazione locale: offre privacy completa ed è gratuita, ma richiede più risorse di configurazione e hardware tecniche. È ideale per i progetti in cui la privacy dei dati è fondamentale.

- Impostazione del cloud: più facile da impostare e integrare con N8N, ma richiede una chiave API e può sostenere costi a seconda dell'utilizzo. È adatto a progetti in cui la scalabilità e la facilità di integrazione sono fondamentali.

Entrambe le configurazioni possono essere efficaci a seconda delle esigenze e dei vincoli specifici.

Citazioni:
[1] https://www.youtube.com/watch?v=tjad65ocoe8
[2] https://www.reddit.com/r/selfhosted/comments/1iekz8o/beginner_guide_run_deepseekr1_671b_on_your_own/
[3] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[4] https://dev.to/dwtoledo/integring-deepseek-into-n8n-low-cost-ai-tautomations-11ge
[5] https://www.youtube.com/watch?v=-hz08t9hgfu
[6] https://dev.to/shayy/run-deepseek-locally-on-your-laptop-37hl
[7] https://blog.elest.io/how-to-use-deepseek-in-in-n8n/
[8] https://www.reddit.com/r/n8n/comments/1ib3yv5/getting_started_with_deepseek_r1_groq_custom_node/
[9] https://www.youtube.com/watch?v=G_LLLIQUPTSE