Publié le9 novembre 2024Exploration des méthodes de prompting et de l'impact des outils externes sur les hallucinations des LLMChain-of-ThoughtChain-of-VerificationDuckDuckGo AugmentationKnowledge Graph-based RetrofittingLLM hallucinationLarge Language ModelMeta-LlamaMultiagent DebateNLP taskPythonReflectionSelf-ConsistencyTree-of-ThoughtsWikipediaCet article explore comment différentes méthodes de prompting et l'utilisation d'outils externes affectent le taux d'hallucination (génération d'informations inexactes ou fabriquées) des modèles de langage à grande échelle (LLM).