Para crear un aviso para Deepseek R1 en N8N, siga estos pasos:
Paso 1: Instale el nodo Deepseek en N8N
Primero, asegúrese de tener N8N instalado. Luego, vaya a Configuración> Nodos comunitarios> Instalar un nodo comunitario. En el campo Nombre del paquete NPM, escriba "N8N-Nodes-Depseek", marque la casilla que reconoce los riesgos y haga clic en Instalar ** [1].Paso 2: Crear credenciales para Deepseek
Después de instalar el nodo, debe crear credenciales para Deepseek. Vaya a crear un nuevo flujo de trabajo y agregue un nodo de activación para iniciar el flujo. Luego, agregue un servicio haciendo clic en "+" y buscando "Deepseek". Seleccione el nodo Deepseek que instaló [1].Paso 3: Configurar el nodo Deepseek
En el nodo Deepseek, deberá configurar las credenciales:- Haga clic en + Crear una nueva credencial.
- Pegue su tecla API Deepseek en el campo de la tecla API.
- Guarde la credencial [1].
Paso 4: Configure el aviso
Ahora, configure el indicador de Deepseek R1:- En el campo Modelo, seleccione Deepseek R1 o la variante de modelo específica que está utilizando (por ejemplo, Deepseek-Razerer para tareas de razonamiento lógico) [5].
- En la sección de solicitud, puede agregar mensajes para guiar la respuesta de la IA. Por ejemplo:
- Mensaje del sistema: escriba una descripción del papel de la IA, como "usted es un asistente útil".
- Mensaje del usuario: ingrese la pregunta o el indicador a la que desea que la IA responda, como "¿Quién eres?" [1].
Paso 5: Prueba el aviso
Finalmente, pruebe su configuración haciendo clic en el botón de prueba de prueba. Esto enviará el aviso a Deepseek R1 y mostrará la respuesta en N8N [1].Consideraciones adicionales para Deepseek R1
Deepseek R1 es particularmente útil como agente de planificación, donde puede generar planes paso a paso en función de la entrada del usuario. Este modelo es rentable y poderoso para aplicaciones basadas en chat y tareas de automatización [4] [5]. Cuando use Deepseek R1, asegúrese de comprender sus capacidades y limitaciones, como el tiempo de procesamiento, que puede no ser adecuado para todas las aplicaciones en tiempo real [1] [4].Para configuraciones más complejas, como la integración con Ollama o el uso de Docker para el autohospedaje, consulte recursos adicionales que proporcionen guías detalladas sobre estas configuraciones [2] [7].
Citas:
[1] https://dev.to/dwtoledo/integrating-deepseek-into-n8n-low-cost-ai-automations-11ge
[2] https://dev.to/docker/self-hosting-ai-workflows-on-macdeepseek-r1-ollama-n8n-powered-by-docker-4a9k
[3] https://www.youtube.com/watch?v=jyu_0nnmeg
[4] https://www.youtube.com/watch?v=tjad65Ocoe8
[5] https://blog.elest.io/how-to-use-deepseek-r1-in-n8n/
[6] https://www.linkedin.com/pulse/how-automate- anythhingdeepseek-r1-complete-guide-julian-goldie-irnse
[7] https://www.youtube.com/watch?v=g_lliquptse
[8] https://www.youtube.com/watch?v=4zk-BP9ATPQ
[9] https://www.skool.com/ai-automation-society/new-video-dow-to-actually-build-agents-with-deepseek-r1-in-n8n-without-openrouter