Le 13 janvier 2026, DeepSeek, connu pour ses modèles d'IA à poids ouvert de pointe, a révélé un article révolutionnaire qui pourrait remodeler la gestion de la mémoire par l'IA.
Sous la direction du fondateur Liang Wenfeng, l'équipe a introduit la "mémoire conditionnelle", une technique qui sépare la logique d'une IA de sa connaissance. Cela permet à la plupart des données de résider sur un matériel abordable et facile d'accès, plutôt que sur une mémoire vidéo coûteuse.
Contrairement à la génération augmentée par récupération (RAG), qui peut sembler lente—comme attendre une note vocale WhatsApp—la méthode de DeepSeek offre un accès presque instantané à sa base de connaissances, semblable à avoir un livre de bibliothèque qui s'ouvre instantanément à la page exacte dont vous avez besoin.
DeepSeek a open-sourcé cette technologie sous le nom d'Engram. Selon l'article, Engram augmente la capacité de connaissance d'une IA, améliorant ainsi la performance sur les tâches complexes en information tout en maintenant une formation et une inférence efficaces.
Pour les utilisateurs, cela signifie que les outils d'IA seront bientôt plus rapides, moins chers et meilleurs pour se souvenir des conversations à partir de dizaines d'invites précédentes.
Dans le Sud global, des startups de Nairobi aux laboratoires de recherche de São Paulo, Engram pourrait rendre l'IA avancée accessible sur des appareils de milieu de gamme, donnant de l'autonomie aux entrepreneurs, créateurs et universitaires.
Reference(s):
DeepSeek unveils new AI architecture to slash memory requirements
cgtn.com


