Chargement en cours

Décomposer pour mieux régner : comment les systèmes multi-agents basés sur LLM surpassent les limites de l’IA

L’intelligence artificielle, notamment les grands modèles linguistiques (LLM), a fait des progrès considérables. Cependant, les LLM mono-agents se heurtent à des limites inhérentes : contexte fini, surcharge de rôle et transfert de domaine fragile. Les approches multi-agents classiques tentent de pallier ces faiblesses, mais introduisent de nouveaux défis : décompositions mal définies, contrats flous et frais généraux de vérification qui réduisent les gains.

Face à ces difficultés, une nouvelle stratégie, baptisée « Know-The-Ropes » (KtR), propose une approche différente. KtR transforme les connaissances préalables du domaine en une hiérarchie de schémas algorithmiques. Les tâches sont décomposées de manière récursive en sous-tâches de type contrôlé, chacune étant résolue en zéro-coup ou avec une amélioration minimale (par exemple, chaîne de pensée, micro-réglage, auto-vérification).

Basée sur le théorème « No Free Lunch », KtR privilégie une décomposition disciplinée plutôt qu’une recherche d’une invite universelle. Des expériences concrètes illustrent l’efficacité de cette méthode. Sur le problème du sac à dos (3 à 8 objets), trois agents GPT-4o-mini ont vu leur précision passer de 3% en zéro-coup à 95% sur des instances de taille 5 après avoir corrigé un seul agent bloquant. Sur le problème plus complexe d’affectation des tâches (6 à 15 tâches), un schéma à six agents o3-mini atteint 100% de précision jusqu’à la taille 10 et 84% sur les tailles 13-15, contre 11% en zéro-coup.

En conclusion, une décomposition consciente des algorithmes combinée à une augmentation ciblée transforme des modèles modestes en collaborateurs fiables, sans nécessiter de modèles monolithiques toujours plus grands. Cette approche ouvre de nouvelles perspectives pour le développement de systèmes d’IA plus robustes et efficaces.

Share this content:

Laisser un commentaire