Настройка рабочего процесса по поиску дополненного поколения (RAG) с DeepSeek на AWS включает в себя несколько шагов, в основном используя Amazon SageMaker и Amazon Opensearch Service. Вот подробное руководство о том, как это реализовать:
Шаг 1: развернуть DeepSeek-R1 на Amazon SageMaker
1. Создайте домен SageMaker: перейдите в Amazon SageMaker и создайте новый домен. Выберите опцию «Quick Setup» с одним пользователем и дождитесь завершения настройки.
2. Разверните модель DeepSeek-R1: как только ваш домен будет готов, Open SageMaker Studio и разверните модель DeepSeek-R1. Этот шаг включает настройку конечной точки для модели.
Шаг 2: Настройка сервиса Amazon OpenSearch
1. Создайте домен OpenSearch: перейдите на консоль AWS и создайте новый домен OpenSearch. Это послужит вашей векторной базой данных для хранения и извлечения внедрения.
2. Настройте роли IAM: создайте свои роли для управления разрешениями между OpenSearch и SageMaker. Это включает в себя роли для вызова модели SageMaker и для вашего пользователя для создания разъемов.
Шаг 3: Настройка ролей и разрешений IAM
1. Создайте роль IAM для доступа SageMaker: эта роль позволяет OpenSearch вызывать модель DeepSeek на SageMaker. Прикрепите необходимые политики, чтобы включить вызов модели.
2. Настройте роль IAM в OpenSearch: убедитесь, что OpenSearch имеет необходимые разрешения для взаимодействия с моделями SageMaker.
Шаг 4: Создать разъем OpenSearch
1. Используйте сценарии для создания разъема: используйте предоставленные сценарии Python для создания разъема OpenSearch для SageMaker. Этот разъем позволяет OpenSearch называть модель DeepSeek для генерации текста.
2. Зарегистрируйте модель: используйте API OpenSearch, чтобы зарегистрировать модель DeepSeek. Это включает в себя указание имени модели, типа функции и идентификатора разъема.
Шаг 5: Реализация Rag Workflow
1. Используйте векторные встроки для поиска: Настройте OpenSearch для использования векторных встроений для семантического поиска. Это позволяет получить более точный поиск соответствующих документов.
2. Интегрируйте с DeepSeek для генерации текста: после получения соответствующих документов используйте модель DeepSeek для генерации текстовых ответов на основе полученной информации.
Шаг 6: тестирование и развертывание
1. Проверьте систему RAG: используйте образец запроса, чтобы проверить способность системы получить соответствующие документы и генерировать когерентные текстовые ответы.
2. Разверните приложение: после тестирования разверните приложение RAG для использования производства, обеспечивая надлежащую защиту и настроенные все компоненты.
Эта настройка использует возможности рассуждений DeepSeek и функции векторной базы данных Opensearch для создания надежного рабочего процесса RAG на AWS. Для получения более подробных инструкций и сценариев см. В документации AWS и репозитории GitHub, связанные с DeepSeek и Opensearch [1] [2] [6].
Цитаты:
[1] https://www.youtube.com/watch?v=K2BSE_HWL78
[2] https://aws.amazon.com/blogs/big-data/use-deepseek-with-amazon-opensearch-service-vector-database-and-amazon-sagemaker/
[3] https://github.com/opensearch-project/ml-commons/blob/main/docs/tutorials/aws/rag_with_deepseek_r1_model_on_bedrock.md
[4] https://github.com/spidy20/deepseek-rag-app
[5] https://www.youtube.com/watch?v=_JXEIXVUVNW
[6] https://opensearch.org/docs/latest/vector-search/tutorials/rag/rag-deepseek-r1-sagemaker/
[7] https://opensearch.org/docs/latest/vector-search/tutorials/rag/rag-deepseek-r1-bedrock/
[8] https://aws-news.com/article/0194e24b-49c8-f3c1-2748-3b9c36468666