Retrieval-augmented-generation

  • Veröffentlicht am
    Dieser Beitrag untersucht RAPTOR, einen neuartigen Ansatz für Retrieval-Augmented Sprachmodelle, der eine hierarchische Baumstruktur von Dokumenten durch rekursives Embedding, Clustering und Zusammenfassen erstellt. Diese Methode ermöglicht den Abruf von Informationen auf verschiedenen Abstraktionsebenen und verbessert die Leistung bei komplexen Frage-Antwort-Aufgaben mit langen Dokumenten im Vergleich zum herkömmlichen Abruf zusammenhängender Blöcke erheblich.
  • Veröffentlicht am
    Dieser Beitrag untersucht ReaRAG, einen neuartigen Ansatz, der iterative Retrieval-Augmented Generation (RAG) mit wissensgeleitetem Reasoning integriert, um die Faktentreue und Robustheit von Large Reasoning Models (LRMs) bei Multi-Hop-Frage-Antwort-Aufgaben zu verbessern.
  • Veröffentlicht am
    Erfahren Sie, wie OPEN-RAG die Fähigkeiten des Retrieval-Augmented Generation (RAG) durch den Einsatz von Open-Source Large Language Models (LLMs) verbessert und dabei state-of-the-art Modelle in Genauigkeit und Geschwindigkeit übertrifft.
  • Veröffentlicht am
    Erkunden Sie die Auswirkungen verschiedener Retrieval-Strategien auf die Leistung und Effizienz von Retrieval-Augmented Generation (RAG)-Systemen in nachgelagerten Aufgaben wie Question Answering (QA) und attributiertem QA.
  • Veröffentlicht am
    Entdecken Sie Xmodel-1.5, ein bahnbrechendes multilinguales LLM, entwickelt vom AI Lab von Xiaoduo Technology, das darauf abzielt, das cross-linguale Verständnis und die Generierung zu verbessern, mit einem Fokus auf weniger repräsentierte Sprachen.