Veröffentlicht am
Coercive CoT

Verständnis und Verbesserung von Chain-of-Thought-Prompting mit kohärenter Argumentation und Sensitivitätsanalyse

Einführung: Dieses Papier untersucht die Effektivität von Chain-of-Thought (CoT)-Prompting in großen Sprachmodellen (LLMs), wobei der Schwerpunkt auf der Berücksichtigung der gesamten Argumentationskette während des Trainings und der Inferenz liegt. Es kontrastiert diesen "Coherent CoT"-Ansatz mit der traditionelleren "Stepwise ICL"-Methode, bei der jeder Argumentationsschritt isoliert betrachtet wird. Die Autoren untersuchen auch die Sensitivität von CoT-Modellen gegenüber Fehlern in verschiedenen Argumentationsschritten und schlagen eine neuartige Prompting-Technik vor, um die Leistung zu verbessern.

Kohärentes vs. schrittweises CoT

Das Papier argumentiert, dass das Training von LLMs mit Coherent CoT, bei dem das Modell die gesamte Argumentationskette berücksichtigt, zu einer besseren Leistung führt als Stepwise ICL, bei dem jeder Schritt unabhängig behandelt wird. Dies wird der Fähigkeit des Modells zugeschrieben, sich selbst zu korrigieren, indem es frühere Vorhersagen in nachfolgenden Schritten berücksichtigt.

Sensitivitätsanalyse

Die Forschung zeigt, dass Coherent CoT-Modelle empfindlicher auf Fehler in Zwischenschritten der Argumentation innerhalb von Demonstrationsbeispielen reagieren als auf Fehler in den endgültigen Schlussfolgerungen. Dies deutet darauf hin, dass die Genauigkeit der Zwischenschritte für die Gesamtleistung entscheidend ist.

Verbesserte Prompting-Technik

Basierend auf der Sensitivitätsanalyse schlagen die Autoren eine neue Prompting-Methode vor, die sowohl korrekte als auch inkorrekte Argumentationspfade in Demonstrationsbeispielen einbezieht. Dieser Ansatz zielt darauf ab, die Genauigkeit der Zwischenschritte zu verbessern und dadurch die Gesamtleistung von CoT zu steigern.

Fazit

Durch die Berücksichtigung der gesamten Argumentationskette während des Trainings (Coherent CoT) können LLMs aufgrund ihrer Fähigkeit zur Selbstkorrektur eine bessere Leistung erzielen. Darüber hinaus unterstreicht die Sensitivität dieser Modelle gegenüber Fehlern in Zwischenschritten der Argumentation die Bedeutung genauer Demonstrationen. Die vorgeschlagene Prompting-Technik, die sowohl korrekte als auch inkorrekte Argumentationspfade einbezieht, bietet einen vielversprechenden Ansatz zur Verbesserung der Effektivität von CoT.

Quelle(n):

  • [Wei, J., et al. (2024). Understanding and Enhancing Chain-of-Thought Prompting with Coherent Reasoning and Sensitivity Analysis. arXiv preprint arXiv:2410.16540v1.]

Weiterlesen

Ähnliche Beiträge