Nouvelles de la Gate News : le 11 avril, la société d’infrastructure IA Ramp Labs a publié ses résultats de recherche « Latent Briefing ». En compressant directement le cache KV des grands modèles, elle permet un partage efficace de la mémoire entre systèmes multi-agents, tout en réduisant fortement la consommation de Tokens sans perte de précision. Dans les architectures multi-agents courantes, l’orchestrateur (Orchestrator) décompose les tâches et appelle de manière répétée le modèle de travail (Worker). À mesure que la chaîne d’inférence s’allonge, la quantité de Tokens augmente de façon exponentielle. L’idée centrale de Latent Briefing consiste à utiliser le mécanisme d’attention pour repérer, dans le contexte, les parties réellement essentielles, puis à supprimer directement les informations redondantes au niveau de la représentation, plutôt que de s’appuyer sur des résumés de LLM lents ou sur des recherches RAG peu stables. Lors des tests sur le banc LongBench v2, la méthode obtient d’excellents résultats : la consommation de Tokens du modèle Worker baisse de 65 %, et pour les documents de longueur moyenne (32k à 100k), le gain médian de Tokens atteint 49 %. Dans l’ensemble, la précision s’améliore d’environ 3 points par rapport à la base de référence, tandis que le surcoût de temps induit par chaque compression ne représente qu’environ 1,7 seconde, soit un gain de vitesse d’environ 20 fois par rapport à l’algorithme original. L’expérience utilise Claude Sonnet 4 comme orchestrateur et Qwen3-14B comme modèle Worker, couvrant des scénarios de documents variés : articles académiques, actes et documents juridiques, romans et rapports gouvernementaux. L’étude montre également que le seuil optimal de compression varie selon la difficulté de la tâche et la longueur du document : les cas difficiles se prêtent à une compression plus agressive pour filtrer le bruit de raisonnement spéculatif, tandis que les documents longs sont mieux servis par une compression légère afin de préserver des informations clés dispersées.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Mastercard rend possible les paiements par agents IA grâce à un partenariat avec Lobstercash et Crossmint
Mastercard s’est associé à Lobstercash et Crossmint pour faciliter les paiements par agents IA via les cartes de crédit et de débit existantes, en s’intégrant aux systèmes financiers actuels sans nécessiter de nouveaux portefeuilles. Ce partenariat permet aux agents IA d’automatiser les transactions, améliorant l’efficacité et la sécurité.
GateNewsIl y a 3h
L’équipe chinoise EvoMap s’en prend avec virulence à la copie de Hermes Agent, qui est devenu viral : il existe une forte similarité entre les systèmes d’auto-évolution
L’équipe chinoise EvoMap accuse l’agent Hermes de Nous Research d’avoir copié sa structure Evolver/GEP, estimant que les deux présentent une forte similarité sur plusieurs modules clés. EvoMap indique que la conception de Hermes ne cite ni ne remercie son contenu précédemment publié, et que la controverse a suscité un large intérêt dans la communauté ; certains internautes chinois soutiennent EvoMap et critiquent le comportement de plagiat de Hermes. Bien que l’équipe de Nous n’ait pas encore réfuté les accusations point par point, l’affaire s’est rapidement propagée dans l’opinion publique liée à l’IA.
ChainNewsAbmediaIl y a 3h
OpenAI met à jour Codex avec un agent IA qui contrôle le bureau et automatise les flux de développement
Le Codex de OpenAI, mis à niveau, évolue d’un assistant de programmation vers un agent autonome pour les environnements de bureau, capable de gérer des applications, d’automatiser des flux de travail et de s’intégrer à plus de 100 applications. Ce changement renforce la continuité des tâches et l’automatisation des flux de travail, reflétant un paysage concurrentiel dans les outils de codage par IA.
GateNewsIl y a 4h
Agile Soda lance une plateforme Agentic OCR avec 98 % de précision de classification documentaire
Agile Soda a lancé Agentic OCR, une plateforme d’automatisation documentaire pilotée par l’IA qui élimine le préentraînement et permet un déploiement instantané. Elle offre une grande précision pour la classification et l’extraction, en s’améliorant continuellement grâce aux corrections des utilisateurs, avec des projets d’améliorations futures.
GateNewsIl y a 8h
American Express va acquérir la start-up d’IA Hyper de gestion des dépenses au T2 2026
American Express va acquérir la start-up d’IA Hyper pour améliorer ses outils de gestion des dépenses destinés aux clients professionnels. L’acquisition, prévue pour se finaliser au T2 2026, fait suite à un partenariat qui a lancé en 2024 une carte de récompenses co-brandée.
GateNewsIl y a 9h
La startup cloud de Singapour OrtCloud lève 1,7 M$ lors d’un tour de pré-amorçage mené par Golden Gate Ventures
OrtCloud, une startup singapourienne, a levé 1,7 million de dollars en financement de pré-amorçage pour son infrastructure cloud spécialisée conçue pour les charges de travail liées à l’IA. Avec des clients tels que OpenAI et Samsung, l’entreprise vise à améliorer le développement de produits et à s’étendre en Asie-Pacifique et aux États-Unis.
GateNewsIl y a 9h