Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Comment Deepseek R1 maintient-il le contexte sur de longues conversations


Comment Deepseek R1 maintient-il le contexte sur de longues conversations


Deepseek R1 utilise plusieurs stratégies innovantes pour maintenir le contexte sur de longues conversations, en tirant parti de ses méthodologies avancées d'architecture et de formation.

Caractéristiques architecturales

** Mélange d'experts (MOE)
Deepseek R1 utilise un mélange d'architecture d'experts, qui lui permet d'activer seulement un sous-ensemble de ses 671 milliards de paramètres au cours de chaque réussite à terme, en particulier 37 milliards. Cette activation sélective améliore considérablement l'efficacité de calcul, permettant au modèle de traiter des séquences étendues allant jusqu'à 128 000 jetons tout en maintenant la cohérence et la précision dans ses réponses [1] [3]. Le système de routage MOE est conçu pour spécialiser différents experts pour diverses tâches de raisonnement, ce qui est crucial pour gérer des dialogues complexes et s'assurer que le modèle peut suivre des conversations prolongées sans perdre la trace du contexte.

Méthodologies de formation

** Approche d'apprentissage par renforcement (RL)
Contrairement aux modèles traditionnels qui reposent fortement sur le réglage fin supervisé, Deepseek R1 est principalement formé en utilisant l'apprentissage par renforcement. Cette méthode permet au modèle de développer de manière autonome les capacités de raisonnement. Le processus de formation comprend plusieurs phases: à commencer par les données de démarrage à froid pour établir une base solide, suivie de Pure RL pour améliorer les compétences de raisonnement et culminant dans une formation RL supplémentaire à travers diverses invites [2] [4]. Cette approche à plusieurs étages aide le modèle à apprendre à la fois des données structurées et des interactions du monde réel, ce qui est essentiel pour maintenir le contexte sur des échanges plus longs.

** Utilisation des données de démarrage à froid
La phase initiale de la formation intègre des données de démarrage à froid soigneusement organisées qui contribuent à améliorer la lisibilité et la cohérence des réponses. Ces données garantissent que les sorties du modèle sont non seulement précises mais également conviviales, résolvant les problèmes courants trouvés dans les itérations antérieures comme une mauvaise lisibilité et un mélange de langage [2] [4]. En établissant un format de sortie structuré qui comprend des processus de raisonnement et des résumés, Deepseek R1 conserve efficacement le contexte à travers de longues conversations.

Performance et gestion du contexte

La capacité de Deepseek R1 à gérer efficacement les contextes longs est comparable aux principaux modèles sur le terrain. Ses performances à travers divers repères montrent sa capacité à maintenir la clarté et le flux logique même lorsqu'ils sont engagés dans des dialogues complexes. La conception du modèle lui permet de générer des milliers de jetons de raisonnement par réponse tout en veillant à ce que la conversation reste cohérente [1] [3]. De plus, l'intégration des mécanismes d'auto-vérification et de réflexion lui permet de réévaluer les déclarations précédentes et de maintenir la continuité des discussions.

Dans l'ensemble, Deepseek R1 représente une progression importante dans le maintien du contexte conversationnel à travers son architecture sophistiquée et ses pratiques de formation innovantes.

Citations:
[1] https://unfoldai.com/deepseek-r1/
[2] https://www.vellum.ai/blog/the-training-of-epseek-r1-and-ways-to-use-it
[3] https://c3.unu.edu/blog/deepseek-r1-pioneering-open-source-thinking-model-and-its-impact-on-the-llm-handscape
[4] https://arxiv.org/html/2501.12948v1
[5] https://forum.cursor.com/t/deepseek-r1-cancelled/44578
[6] https://www.reddit.com/r/openai/comments/1i5pr7q/it_just_happened_deepseekr1_is_here/
[7] https://github.com/deepseek-ai/deepseek-r1/actions
[8] https://news.ycombinator.com/item?id=42823568