Chain-of-verification

  • Veröffentlicht am
    2 min0Kommentare
    Dieses Papier untersucht, wie verschiedene Prompting-Methoden und der Einsatz externer Tools die Halluzinationsrate (Erzeugung ungenauer oder erfundener Informationen) von Large Language Models (LLMs) beeinflussen.
    Weiterlesen