Deepseek R1, în timp ce un model avansat în capacitățile de raționament, prezintă mai multe limitări în abilitățile sale multitasking. Iată constrângerile cheie identificate:
Limitări generale ale capacității
Performanța Deepseek R1 în multitasking nu este la fel de robustă ca predecesorul său, Deepseek V3, în special în sarcini complexe, cum ar fi apelul funcțiilor, interacțiunile cu mai multe rânduri și ieșirea JSON. Acest lucru indică faptul că, deși poate gestiona diverse sarcini, eficacitatea acesteia se diminuează în scenarii mai complexe care necesită raționamente susținute în mai multe etape sau contexte [1].Probleme de amestecare a limbii
Modelul este optimizat în primul rând pentru engleză și chineză, ceea ce poate duce la amestecarea limbii la procesarea întrebărilor în alte limbi. Acest lucru duce la rezultate care nu se pot alinia la așteptările utilizatorului sau la limbajul intenționat al interogării, complicând astfel utilizabilitatea acestuia pentru un public mai larg [1] [4].Sensibilitate la solicitare
Deepseek R1 arată o sensibilitate ridicată la structura prompturilor. Se comportă slab cu tehnici de solicitare cu câteva fotografii, care adesea degradează calitatea de ieșire a acesteia. În schimb, este recomandat să utilizați o solicitare de zero cu instrucțiuni clare și concise pentru o performanță optimă. Această sensibilitate își poate împiedica adaptabilitatea în diferite sarcini și intrări ale utilizatorilor [2] [8].Probleme de eficiență
Modelul se confruntă cu provocări legate de eficiență în timpul proceselor de învățare a consolidării (RL), în special în sarcinile de inginerie software. Datorită timpilor de evaluare îndelungate asociate cu antrenamentul RL, Deepseek R1 nu a depășit în mod semnificativ modelele anterioare în acest domeniu. Îmbunătățirile viitoare sunt anticipate pentru a aborda aceste probleme de eficiență prin metode precum eșantionarea de respingere și evaluările asincrone [1] [7].Calitatea ieșirii și adâncimea raționamentului
În timp ce Deepseek R1 folosește un lanț de abordare a gândirii care permite raționamentul reflectorizant, acest lucru poate duce uneori la ieșiri verbose și aglomerate. Modelul se poate lupta cu menținerea coerenței în timpul rezolvării complexe a problemelor, rezultând rezultate care se simt neregulate sau nefocalizate. Această caracteristică poate scăpa de claritatea și utilitatea răspunsurilor sale [2] [3].În rezumat, în timp ce Deepseek R1 reprezintă un avans semnificativ în capacitățile de raționament pentru modelele de limbaj mare, abilitățile sale de multitasking sunt constrânse de probleme legate de gestionarea complexității, procesarea limbajului, sensibilitatea promptă, eficiența în domenii specifice și coerența de ieșire.
Citări:[1] https://arxiv.org/html/2501.12948v1
]
[3] https://www.reddit.com/r/localllama/comments/1i7fjqm/deepseek_r1_is_unusable_imho/
[4] https://www.hindustantimes.com/world-news/us-news/deepseek-ai-chinas-deepseek-r1-low-data-digital-asistant-mpact-wall-street-technology-market-global -101737978272938.html
[5] https://github.com/deepseek-ai/deepseek-r1/issues/26
[6] https://www.linkedin.com/pulse/deepseek-revolutioning-AI-Open-Source-Reasoning-20-Ramachandran-xakme
[7] https://adasci.org/mastering-llms-herasoning-capability-with-deepseek-r1/
[8] https://www.prompthub.us/blog/deepseek-r-1-model-overview-and-how-it-ranks-against-openais-o1
[9] https://www.vellum.ai/blog/the-training-of-deepseek-r1-and-ways-to-use-it-it