Die Einrichtung eines RAG -Workflows (Abruf Augmented Generation) mit Deepseek on AWS umfasst mehrere Schritte, hauptsächlich mit dem Amazon -Sagemaker und dem Amazon OpenSearch -Service. Hier finden Sie eine detaillierte Anleitung, wie dies implementiert werden kann:
Schritt 1: Deepseek-R1 im Amazon Sagemaker einsetzen
1. Erstellen Sie eine Sagemaker -Domain: Navigieren Sie zu Amazon Sagemaker und erstellen Sie eine neue Domain. Wählen Sie die Option "Single User Quick Setup" und warten Sie, bis das Setup abgeschlossen ist.
2. Deepseek-R1-Modell einsetzen: Sobald Ihre Domäne fertig ist, öffnen Sie Sagemaker Studio und stellen Sie das Deepseek-R1-Modell ein. In diesem Schritt wird ein Endpunkt für das Modell eingerichtet.
Schritt 2: Amazon OpenSearch -Dienst einrichten
1. Erstellen Sie eine OpenSearch -Domäne: Gehen Sie zur AWS -Konsole und erstellen Sie eine neue OpenSearch -Domäne. Dies dient als Ihre Vektordatenbank zum Speichern und Abrufen von Einbettungen.
2. Konfigurieren Sie IAM -Rollen: Erstellen Sie IAM -Rollen, um Berechtigungen zwischen OpenSearch und Sagemaker zu verwalten. Dies beinhaltet Rollen, um das Sagemaker -Modell aufzurufen und Ihr Benutzer Konnektoren zu erstellen.
Schritt 3: Konfigurieren Sie IAM -Rollen und -Träger und Berechtigungen
1. Erstellen Sie die IAM -Rolle für Sagemaker Access: Diese Rolle ermöglicht es OpenSearch, das Deepseek -Modell auf Sagemaker aufzurufen. Fügen Sie die erforderlichen Richtlinien bei, um die Modellaufruf zu aktivieren.
2. Konfigurieren Sie die IAM -Rolle in OpenSearch: Stellen Sie sicher, dass OpenSearch über die erforderlichen Berechtigungen verfügt, um mit Sagemaker -Modellen zu interagieren.
Schritt 4: OpenSearch -Anschluss erstellen
1. Verwenden Sie Skripte, um Connector zu erstellen: Verwenden Sie bereitgestellte Python -Skripte, um einen OpenSearch -Connector für Sagemaker zu erstellen. Mit diesem Anschluss können OpenSearch das Deepseek -Modell für die Textgenerierung aufrufen.
2. Registrieren Sie das Modell: Verwenden Sie die OpenSearch -API, um das Deepseek -Modell zu registrieren. Dies beinhaltet die Angabe des Modellnamens, des Funktionstyps und der Connector -ID.
Schritt 5: Implementieren Sie RAG -Workflow
1. Verwenden Sie Vektoreinbettungen für die Suche: Konfigurieren Sie OpenSearch, um Vektoreinbettdings für die semantische Suche zu verwenden. Dies ermöglicht ein genaueres Abrufen relevanter Dokumente.
2. In Deepseek für die Textgenerierung integrieren: Sobald relevante Dokumente abgerufen sind, verwenden Sie das Deepseek -Modell, um Textantworten basierend auf den abgerufenen Informationen zu generieren.
Schritt 6: Testen und Bereitstellen
1. Testen Sie das Lappensystem: Verwenden Sie eine Beispielabfrage, um die Fähigkeit des Systems zu testen, relevante Dokumente abzurufen und kohärente Textantworten zu generieren.
2. Bereitstellen Sie die Anwendung: Stellen Sie nach dem Testen die RAG -Anwendung für die Produktionsanwendung bereit, um sicherzustellen, dass alle Komponenten ordnungsgemäß gesichert und konfiguriert sind.
Dieses Setup nutzt die Argumentationsfunktionen von Deepseek und die Vector -Datenbankfunktionen von OpenSearch, um einen robusten Lag -Workflow für AWS zu erstellen. Ausführlichere Anweisungen und Skripte finden Sie in AWS -Dokumentation und GitHub -Repositories im Zusammenhang mit Deepseek und OpenSearch [1] [2] [6].
Zitate:
[1] https://www.youtube.com/watch?v=k2bse_hwl78
[2] https://aws.amazon.com/blogs/big-data/use-teepseek-with-amazon-opensearch-service-vector-database-amazon-sagemaker/
[3] https://github.com/opensearch-project/ml-commons/blob/main/docs/tutorials/aws/rag_with_deepseek_r1_model_on_bedrock.md
[4] https://github.com/spidy20/deepseek-rag-app
[5] https://www.youtube.com/watch?v=_jxeixvuvnw
[6] https://opensearch.org/docs/latest/vector-search/tutorials/rag/rag-deepseek-r1-sagemaker/
[7] https://opensearch.org/docs/latest/vector-search/tutorials/ag/rag-deepseek-r1-bedrock/
[8] https://aws-news.com/article/0194e24b-49c8-f3c1-2748-3b9c36468666