Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Jak utworzyć monit o głębokość R1 w N8N


Jak utworzyć monit o głębokość R1 w N8N


Aby utworzyć monit o Deepseek R1 w N8N, wykonaj następujące kroki:

Krok 1: Zainstaluj węzeł Deepseek w N8N

Najpierw upewnij się, że masz zainstalowany N8N. Następnie przejdź do ustawień> Węzły społeczności> Zainstaluj węzeł społeczności. W polu nazwy pakietu NPM wpisz „N8N-Nodes-DEEPSEEK”, zaznacz pola potwierdzające ryzyko i kliknij Instaluj ** [1].

Krok 2: Utwórz poświadczenia dla Deepseek

Po zainstalowaniu węzła musisz stworzyć poświadczenia dla DeepSeek. Idź, aby utworzyć nowy przepływ pracy i dodaj węzeł spustowy, aby rozpocząć przepływ. Następnie dodaj usługę, klikając „+” i szukając „Deepseek”. Wybierz zainstalowany węzeł Deepseek [1].

Krok 3: Skonfiguruj węzeł Deepseek

W węźle Deepseek musisz skonfigurować poświadczenia:
- Kliknij + Utwórz nowe poświadczenie.
- Wklej swój klucz API Deepseek do pola klucza API.
- Zapisz poświadczenie [1].

Krok 4: Skonfiguruj monit

Teraz skonfiguruj monit o Deepseek R1:
- W polu modelu wybierz DeepSeek R1 lub określony wariant modelu, którego używasz (np. Deepseek-reasenier dla logicznych zadań rozumowania) [5].
- W sekcji podpowiedzi możesz dodawać wiadomości, aby poprowadzić odpowiedź AI. Na przykład:
- Komunikat systemu: wpisz opis roli AI, na przykład „jesteś pomocnym asystentem”.
- Wiadomość użytkownika: Wprowadź pytanie lub monit, na który chcesz odpowiedzieć AI, na przykład „kim jesteś?” [1].

Krok 5: Przetestuj monit

Na koniec przetestuj konfigurację, klikając przycisk Test Krok. To wyśle ​​monit o Deepseek R1 i wyświetli odpowiedź w N8N [1].

Dodatkowe rozważania dotyczące Deepseek R1

Deepseek R1 jest szczególnie przydatny jako agent planowania, w którym może generować plany krok po kroku w oparciu o dane wejściowe użytkownika. Ten model jest opłacalny i potężny dla aplikacji i zadań automatyzacji opartych na czatu [4] [5]. Korzystając z DeepSeek R1, upewnij się, że rozumiesz jego możliwości i ograniczenia, takie jak czas przetwarzania, które mogą nie być odpowiednie dla wszystkich aplikacji w czasie rzeczywistym [1] [4].

Aby uzyskać bardziej złożone konfiguracje, takie jak integracja z Ollamą lub korzystanie z Docker do samodzielnego hostingu, patrz dodatkowe zasoby, które zapewniają szczegółowe przewodniki dotyczące tych konfiguracji [2] [7].

Cytaty:
[1] https://dev.to/dwtoledo/integrating-deepseek-into-n8n-low-cost-ai-automations-11ge
[2] https://dev.to/docker/self-hosting-ai-workflows-on-mac-deepseek-r1 -ollama-n8n-powered--docker-4a9k
[3] https://www.youtube.com/watch?v=jyu_0nnnmeg
[4] https://www.youtube.com/watch?v=tjad65ocoe8
[5] https://blog.elest.io/how-to-use-deepseek-r1-in-no-n8n/
[6] https://www.linkedin.com/pulse/how-automate-anything-deepseek-r1-complete-guide-julian-goldie-irnse
[7] https://www.youtube.com/watch?v=g_llquptse
[8] https://www.youtube.com/watch?v=4ZK-BP9ATPQ
[9] https://www.skool.com/ai-automation-society/new-video-how-to-actial-build-agents-with-deepseek-in-n8n-without-openrouter