Publié le
Coercive CoT

Comprendre et Améliorer le Prompting en Chaîne de Pensée avec un Raisonnement Cohérent et une Analyse de Sensibilité

Introduction : Cet article explore l'efficacité du prompting en Chaîne de Pensée (CoT) dans les grands modèles de langage (LLMs), en se concentrant sur l'impact de la prise en compte de l'ensemble de la chaîne de raisonnement pendant l'entraînement et l'inférence. Il oppose cette approche de "Coherent CoT" à la méthode plus traditionnelle de "Stepwise ICL", où chaque étape de raisonnement est traitée de manière isolée. Les auteurs étudient également la sensibilité des modèles CoT aux erreurs dans différentes étapes de raisonnement et proposent une nouvelle technique de prompting pour améliorer les performances.

Coherent vs. Stepwise CoT

L'article soutient que l'entraînement des LLMs avec Coherent CoT, où le modèle prend en compte l'ensemble de la chaîne de raisonnement, conduit à de meilleures performances que Stepwise ICL, qui traite chaque étape de manière indépendante. Cela est attribué à la capacité du modèle à s'auto-corriger en tenant compte des prédictions précédentes dans les étapes suivantes.

Analyse de Sensibilité

La recherche révèle que les modèles Coherent CoT sont plus sensibles aux erreurs dans les étapes intermédiaires de raisonnement au sein des exemples de démonstration qu'aux erreurs dans les conclusions finales. Cela suggère que la précision des étapes intermédiaires est cruciale pour la performance globale.

Technique de Prompting Améliorée

Sur la base de l'analyse de sensibilité, les auteurs proposent une nouvelle méthode de prompting qui intègre à la fois des chemins de raisonnement corrects et incorrects dans les exemples de démonstration. Cette approche vise à améliorer la précision des étapes intermédiaires et, par conséquent, à booster la performance globale du CoT.

Conclusion

En prenant en compte l'ensemble de la chaîne de raisonnement pendant l'entraînement (Coherent CoT), les LLMs peuvent atteindre de meilleures performances grâce à leur capacité à s'auto-corriger. De plus, la sensibilité de ces modèles aux erreurs dans les étapes intermédiaires de raisonnement souligne l'importance des démonstrations précises. La technique de prompting proposée, intégrant à la fois des chemins de raisonnement corrects et incorrects, offre une approche prometteuse pour améliorer l'efficacité du CoT.

Source(s) :

  • [Wei, J., et al. (2024). Understanding and Enhancing Chain-of-Thought Prompting with Coherent Reasoning and Sensitivity Analysis. arXiv preprint arXiv:2410.16540v1.]

Continuer la lecture

Articles similaires