Mixture-of-agents

  • Publicado el
    5 min0Comentarios
    Este artículo desafía la sabiduría convencional de mezclar diferentes modelos de lenguaje grandes (LLMs) en métodos de ensamblaje. Introduce Self-MoA, un enfoque novedoso que agrega salidas solo del LLM de mejor rendimiento, y demuestra su superioridad sobre el Mixture-of-Agents (MoA) estándar en varios benchmarks.
    Leer más