Mixture-of-agents

  • Veröffentlicht am
    Dieses Papier stellt die herkömmliche Weisheit in Frage, verschiedene Large Language Models (LLMs) in Ensemble-Methoden zu mischen. Es stellt Self-MoA vor, einen neuartigen Ansatz, der Ausgaben nur des leistungsstärksten LLM aggregiert, und zeigt dessen Überlegenheit gegenüber dem Standard-Mixture-of-Agents (MoA) in verschiedenen Benchmarks.