Multiagent-debate

  • Publié le
    Cet article explore comment différentes méthodes de prompting et l'utilisation d'outils externes affectent le taux d'hallucination (génération d'informations inexactes ou fabriquées) des modèles de langage à grande échelle (LLM).