Publicado el
Coercive CoT

Comprensión y mejora del prompting de Cadena de Pensamiento con razonamiento coherente y análisis de sensibilidad

Introducción: Este artículo explora la efectividad del prompting de Cadena de Pensamiento (CoT) en modelos de lenguaje grandes (LLM), centrándose en el impacto de considerar toda la cadena de razonamiento durante el entrenamiento y la inferencia. Contrasta este enfoque de "Coherent CoT" con el método más tradicional de "Stepwise ICL", donde cada paso de razonamiento se trata de forma aislada. Los autores también investigan la sensibilidad de los modelos CoT a errores en diferentes pasos de razonamiento y proponen una técnica novedosa de prompting para mejorar el rendimiento.

Coherent vs. Stepwise CoT

El artículo argumenta que entrenar LLM con Coherent CoT, donde el modelo considera toda la cadena de razonamiento, conduce a un mejor rendimiento que Stepwise ICL, que trata cada paso de forma independiente. Esto se atribuye a la capacidad del modelo para autocorregirse al considerar predicciones previas en pasos posteriores.

Análisis de sensibilidad

La investigación revela que los modelos Coherent CoT son más sensibles a errores en pasos intermedios de razonamiento dentro de ejemplos de demostración que a errores en las conclusiones finales. Esto sugiere que la precisión de los pasos intermedios es crucial para el rendimiento general.

Técnica de prompting mejorada

Basándose en el análisis de sensibilidad, los autores proponen un nuevo método de prompting que incorpora tanto caminos de razonamiento correctos como incorrectos en los ejemplos de demostración. Este enfoque tiene como objetivo mejorar la precisión de los pasos intermedios y, en consecuencia, aumentar el rendimiento general de CoT.

Conclusión

Al considerar toda la cadena de razonamiento durante el entrenamiento (Coherent CoT), los LLM pueden lograr un mejor rendimiento debido a su capacidad de autocorrección. Además, la sensibilidad de estos modelos a errores en pasos intermedios de razonamiento destaca la importancia de demostraciones precisas. La técnica de prompting propuesta, que incorpora tanto caminos de razonamiento correctos como incorrectos, ofrece un enfoque prometedor para mejorar la efectividad de CoT.

Fuente(s):

  • [Wei, J., et al. (2024). Understanding and Enhancing Chain-of-Thought Prompting with Coherent Reasoning and Sensitivity Analysis. arXiv preprint arXiv:2410.16540v1.]

Sigue leyendo

Posts relacionados