- Publié le
- 6 min0Commentaires
Cet article remet en question la sagesse conventionnelle consistant à mélanger différents modèles de langage de grande taille (LLMs) dans les méthodes d'ensemble. Il introduit Self-MoA, une nouvelle approche qui agrège les sorties uniquement du LLM le plus performant, et démontre sa supériorité par rapport au Mixture-of-Agents (MoA) standard dans divers benchmarks.
Lire la suite