Sí, puede usar Deepseek R1 para configuraciones locales y de nubes en N8N. Aquí hay una descripción detallada de cómo integrar Deepseek R1 en N8N para ambos escenarios:
Configuración local
Para ejecutar Deepseek R1 localmente, deberá configurar el modelo en su máquina. Este enfoque ofrece privacidad completa y es gratuita, ya que no necesita servicios o licencias en la nube.
1. Instale Ollama: Ollama es una herramienta que le permite ejecutar modelos AI localmente. Puede descargarlo desde [el sitio web de Ollama] (https://ollama.com/download). Esta herramienta admite varios tamaños de modelo, por lo que puede elegir uno que se adapte a sus capacidades de hardware.
2. Descargue y ejecute Deepseek R1 Modelo: Use Ollama para descargar y ejecutar el modelo Deepseek R1. Puede comenzar con modelos más pequeños como las versiones 1.5B u 8B para un mejor rendimiento en hardware menos potente. Por ejemplo, puede ejecutar la versión 8B usando el comando `AMA Runseek-R: 8` en su terminal.
3. Configure una interfaz local: Herramientas como Chatbox proporciona una interfaz fácil de usar para interactuar con sus modelos de IA en ejecución local. Puede configurar el chatbox para usar el host de la API Ollama, que generalmente vale la pena a `http: //127.0.0.1: 11434`.
4. Integre con N8N: para integrar esta configuración local con N8N, normalmente usaría un nodo personalizado o un Webhook para comunicarse con su servidor de IA local. Esto implica configurar un servidor local que exponga un punto final API para que N8N interactúe.
Configuración de nubes
Para una configuración de la nube, utilizará la API de Cloud de Deepseek, que requiere una clave API pero ofrece una integración más fácil con N8N.
1. Genere la clave API: vaya a la plataforma de Deepseek y genere una clave API. Esta clave es esencial para autenticar sus solicitudes a la API de Cloud Deepseek.
2. Instale el nodo Deepseek en N8N: en N8N, navegue a Configuración> Nodos comunitarios e instale el nodo "N8N-Nodes-DePseek". Este nodo le permite interactuar con la API de la nube de Deepseek directamente dentro de N8N.
3. Configure las credenciales: cree una nueva credencial en N8N pegando su clave API. También deberá especificar la URL base para la API Deepseek y elegir el modelo que desea usar (por ejemplo, Deepseek R1).
4. Cree flujo de trabajo: configure un flujo de trabajo en N8N que use el nodo Deepseek. Puede activar este flujo de trabajo con varias entradas, como mensajes de chat u otros eventos, y usar Deepseek R1 para generar respuestas o realizar tareas que requieren un razonamiento complejo.
Comparación de configuraciones locales y de nubes
- Configuración local: ofrece privacidad completa y es gratuita, pero requiere más recursos técnicos de configuración y hardware. Es ideal para proyectos donde la privacidad de los datos es primordial.
- Configuración de la nube: más fácil de configurar e integrar con N8N, pero requiere una clave API y puede incurrir en costos según el uso. Es adecuado para proyectos donde la escalabilidad y la facilidad de integración son clave.
Ambas configuraciones pueden ser efectivas dependiendo de sus necesidades y limitaciones específicas.
Citas:
[1] https://www.youtube.com/watch?v=tjad65Ocoe8
[2] https://www.reddit.com/r/selfhosted/comments/1iekz8o/beginner_guide_run_deepseekr1_671b_on_your_own/
[3] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[4] https://dev.to/dwtoledo/integrating-deepseek-into-n8n-low-cost-ai-automations-11ge
[5] https://www.youtube.com/watch?v=-hz08t9hgfu
[6] https://dev.to/shayy/run-deepseek-locally-on-your-laptop-37hl
[7] https://blog.elest.io/how-to-use-deepseek-r1-in-n8n/
[8] https://www.reddit.com/r/n8n/comments/1ib3yv5/getting_started_with_deepseek_r1_groq_custom_node/
[9] https://www.youtube.com/watch?v=g_lliquptse