DeepSeek porte sa fenêtre à 1M de tokens et actualise sa base à mai 2025
DeepSeek teste en gris une fenêtre de contexte portée à 1 million de tokens, selon de multiples retours d’utilisateurs ce 11 février. Interrogée, la société confirme ce chiffre aussi bien sur l’app que sur le Web. Pour mémoire, DeepSeek V3.1 avait étendu sa fenêtre à 128 k tokens en août dernier.
Autre changement notable, la base de connaissances hors ligne est actualisée jusqu’en mai 2025 : le modèle parvient à restituer correctement des informations datées d’avril 2025, sans connexion. Le système reste non multimodal : pas d’entrée image, uniquement texte et traitement de la voix.
1M tokens : usages et limites

Passer de 128 k à 1 M tokens ouvre la voie à des prompts incluant des dépôts de code entiers, des corpus réglementaires volumineux ou des historiques de conversation très longs, avec moins de découpage et de gestion externe du contexte. Reste l’inconnue sur le coût d’inférence, la latence et la politique d’accès : la phase de test en gris suggère une activation progressive et potentiellement restreinte.
Le positionnement reste clair : DeepSeek privilégie l’empilement contextuel et la mise à jour de la mémoire factuelle, sans basculement vers une prise en charge native de la vision. Les annonces récentes autour d’architectures et de modules mémoire propriétaires cadrent avec cette montée en capacité, en attendant d’éventuels détails techniques publics sur l’implémentation et la gestion de l’index interne.
Si la barre du million tient ses promesses en production, l’impact sera immédiat sur les workflows R&D et code audit, où la réduction du pré-processing et des heuristiques de chunking compte autant que la qualité de génération. La concurrence sur les très longues fenêtres s’intensifie, et la question ne sera plus seulement « combien de tokens », mais « à quel coût et avec quelle stabilité de rappel ».
Source : ITHome