Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon Quelles sont les principales raisons de restreindre l'API à des jetons 32k malgré le modèle prenant en charge 128K


Quelles sont les principales raisons de restreindre l'API à des jetons 32k malgré le modèle prenant en charge 128K


La restriction de l'API à un maximum de 32 000 jetons, malgré la capacité du modèle à prendre en charge jusqu'à 128 000 jetons, peut être attribué à plusieurs facteurs clés:

1. Performances et stabilité **

Limiter le nombre de jetons aide à maintenir les performances et la stabilité de l'API. Des limites de jetons plus élevées peuvent entraîner une augmentation des demandes de calcul, ce qui peut entraîner des temps de réponse plus lents et une instabilité potentielle pendant les périodes à fort trafic. En plaflant la limite de jeton à 32K, les fournisseurs peuvent assurer des performances plus cohérentes dans différents scénarios d'utilisation [1].

2. Expérience utilisateur **

Une limite de jetons inférieure encourage les utilisateurs à créer des requêtes plus concises et concentrées. Cela peut améliorer la qualité d'interaction globale en favorisant une communication plus claire entre les utilisateurs et le modèle. Lorsque les utilisateurs sont limités à moins de jetons, ils sont plus susceptibles de s'engager dans un dialogue itératif plutôt que de submerger le modèle avec des entrées excessivement longues [3].

3. Gestion des ressources **

Faire fonctionner dans une limite de jeton définie permet une meilleure gestion des ressources du côté serveur. Chaque demande nécessite de la mémoire et de la puissance de traitement, et en restreignant l'utilisation de jetons, les fournisseurs de services peuvent optimiser leur infrastructure pour gérer des demandes plus simultanées sans dégrader la qualité du service [2].

4. Considérations de coûts **

Des limites de jetons plus élevées peuvent entraîner une augmentation des coûts opérationnels pour les prestataires de services en raison d'une plus grande consommation de ressources. En maintenant une limite de 32k, les fournisseurs peuvent gérer les coûts plus efficacement tout en offrant un service robuste qui répond aux besoins de la plupart des utilisateurs [6].

5. Contraintes techniques **

Il peut également y avoir des contraintes techniques liées à la façon dont les modèles sont déployés ou configurés dans des environnements spécifiques. Par exemple, certaines implémentations peuvent ne pas prendre en charge entièrement des limites de jetons supérieurs en raison de limitations de leur architecture ou de leur paramètres de déploiement [4] [5].

En résumé, bien que le modèle lui-même ait le potentiel d'une fenêtre de contexte plus large, des considérations pratiques concernant les performances, l'expérience utilisateur, la gestion des ressources, les coûts et les contraintes techniques entraînent la décision de restreindre l'API aux jetons 32K.

Citations:
[1] https://www.linkedin.com/pulse/gpt-4-continues-lead-googles-32k-models-meet-match-token-ankit-pareek
[2] https://learn.microsoft.com/en-au/answers/questions/2121835/gpt-4o-has-a-35k-input-loking-limit
[3] https://devblogs.microsoft.com/surface-duo/android-openai-chatgpt-15/
[4] https://learn.microsoft.com/en-us/answers/questions/2116223/azure-openai-token-limit-issue
[5] https://community.zapier.com/trouleshooting-99/chatgpt-error-400-max-token-is-too-large-32768-this-model-supports-at-most-4096-completion-tokens -39804
[6] https://themeisle.com/blog/chatgpt-api-cost/
[7] https://community.openai.com/t/anyone-can-explain-wwhy-i-cannot-set-max-token-to-32k/951948
[8] https://www.reddit.com/r/openai/comments/1h7jm52/one_thing_that_openai_shouldve_highlighted_more/
[9] https://github.com/danny-avila/librechat/discussions/1077
[10] https://www.googlecloudcommunity.com/gc/ai-ml/gemini-1-0-pro-tekon-count-not-32k/m-p/719426