Tak, możesz użyć DeepSeek R1 zarówno do konfiguracji lokalnych, jak i chmur w N8N. Oto szczegółowy przegląd tego, jak zintegrować Deepseek R1 z N8N dla obu scenariuszy:
Lokalna konfiguracja
Aby uruchomić DeepSeek R1 lokalnie, musisz skonfigurować model na komputerze. Takie podejście oferuje pełną prywatność i jest bezpłatne, ponieważ nie potrzebujesz żadnych usług w chmurze ani licencji.
1. Zainstaluj Ollama: Ollama to narzędzie, które pozwala uruchamiać modele AI lokalne. Możesz pobrać go z [strony internetowej Ollamy] (https://ollama.com/download). To narzędzie obsługuje różne rozmiary modeli, dzięki czemu możesz wybrać taki, który pasuje do twoich możliwości sprzętowych.
2. Pobierz i uruchom Model Deepseek R1: Użyj Ollamy, aby pobrać i wykonać model Deepseek R1. Możesz zacząć od mniejszych modeli, takich jak wersje 1,5B lub 8B, aby uzyskać lepszą wydajność na mniej wydajnym sprzęcie. Na przykład możesz uruchomić wersję 8B za pomocą polecenia `AMA runseek-R: 8` w terminalu.
3. Skonfiguruj interfejs lokalny: Narzędzia takie jak CHATBOX zapewniają przyjazny interfejs użytkownika do interakcji z lokalnie działającymi modelami AI. Możesz skonfigurować Chatbox, aby użyć hosta Ollama API, który zwykle domyślnie jest `http: //127.0.0.1: 11434`.
4. Zintegruj z N8N: Aby zintegrować tę lokalną konfigurację z N8N, zwykle używałbyś niestandardowego węzła lub haczyka internetowego do komunikowania się z lokalnym serwerem AI. Obejmuje to konfigurowanie lokalnego serwera, który ujawnia punkt końcowy API dla N8N do interakcji.
Cloud Confiet
Do konfiguracji w chmurze użyjesz interfejsu API Cloud DeepSeek, który wymaga klucza API, ale oferuje łatwiejszą integrację z N8N.
1. Wygeneruj klucz API: Przejdź do platformy Deepseek i wygeneruj klucz API. Ten klucz jest niezbędny do uwierzytelnienia Twoich żądań do API Deepseek Cloud.
2. Zainstaluj węzeł DeepSeek w N8N: W N8N przejdź do ustawień> Węzły społecznościowe i zainstaluj węzeł „N8N-Nodes-Deepseek”. Ten węzeł umożliwia interakcję z interfejsem API w chmurze DeepSeek bezpośrednio w N8N.
3. Konfiguruj poświadczenia: Utwórz nowe poświadczenie w N8N, wklejając klucz API. Musisz także określić podstawowy adres URL dla API DeepSeek i wybrać model, którego chcesz użyć (np. Deepseek R1).
4. Utwórz przepływ pracy: Skonfiguruj przepływ pracy w N8N, który używa węzła Deepseek. Możesz wyzwolić ten przepływ pracy za pomocą różnych danych wejściowych, takich jak wiadomości czatowe lub inne zdarzenia, i użyć DeepSeek R1 do generowania odpowiedzi lub wykonywania zadań wymagających złożonego rozumowania.
Porównanie konfiguracji lokalnych i chmurowych
- Lokalna konfiguracja: oferuje pełną prywatność i jest bezpłatna, ale wymaga bardziej technicznej konfiguracji i zasobów sprzętowych. Jest to idealne do projektów, w których prywatność danych jest najważniejsza.
- Konfiguracja w chmurze: łatwiej skonfigurować i zintegrować z N8N, ale wymaga klucza API i może ponosić koszty w zależności od użycia. Jest odpowiedni do projektów, w których kluczowe jest skalowalność i łatwość integracji.
Obie konfiguracje mogą być skuteczne w zależności od konkretnych potrzeb i ograniczeń.
Cytaty:
[1] https://www.youtube.com/watch?v=tjad65ocoe8
[2] https://www.reddit.com/r/selfhosted/comments/1iekz8o/beginner_guide_run_deepseekr1_671b_on_your_own/
[3] https://www.reddit.com/r/selfhosted/comments/1i6ggyh/got_deepseek_r1_running_locally_full_setup_guide/
[4] https://dev.to/dwtoledo/integrating-deepseek-into-n8n-low-cost-ai-automations-11ge
[5] https://www.youtube.com/watch?v=-HZ08T9HGFU
[6] https://dev.to/shayy/run-deepseek-locally-on-your-laptop-37hl
[7] https://blog.elest.io/how-to-use-deepseek-r1-in-no-n8n/
[8] https://www.reddit.com/r/n8n/comments/1ib3yv5/getting_started_with_deepseek_r1_groq_custom_node/
[9] https://www.youtube.com/watch?v=g_llquptse