- Veröffentlicht am
LongRAG: Ein Dual-Perspektiven-Retrieval-Augmented-Generation-Paradigma für Long-Context-Fragebeantwortung
Das Papier stellt LongRAG vor, einen neuartigen Ansatz, der die Leistung von Retrieval-Augmented-Generation (RAG)-Systemen bei der Long-Context-Fragebeantwortung (LCQA) verbessern soll. LCQA beinhaltet das Schlussfolgern über lange Dokumente, um genaue Antworten zu liefern, eine Aufgabe, bei der bestehende Large Language Models (LLMs) oft aufgrund des „lost in the middle“-Problems scheitern. LongRAG zielt darauf ab, dies zu beheben, indem es das Verständnis sowohl globaler Informationen als auch spezifischer Fakten innerhalb langer Kontexte verbessert.
Einführung
Das Papier stellt LongRAG vor, einen neuartigen Ansatz, der die Leistung von Retrieval-Augmented-Generation (RAG)-Systemen bei der Long-Context-Fragebeantwortung (LCQA) verbessern soll. LCQA beinhaltet das Schlussfolgern über lange Dokumente, um genaue Antworten zu liefern, eine Aufgabe, bei der bestehende Large Language Models (LLMs) oft aufgrund des „lost in the middle“-Problems scheitern. LongRAG zielt darauf ab, dies zu beheben, indem es das Verständnis sowohl globaler Informationen als auch spezifischer Fakten innerhalb langer Kontexte verbessert.
Dual-Perspektiven-Ansatz
LongRAG verwendet eine Dual-Perspektiven-Strategie, um das Verständnis komplexer Langzeitkontextinformationen zu verbessern. Dies umfasst sowohl globale Informationen als auch spezifische Fakten und behebt die Grenzen bestehender RAG-Systeme.
Plug-and-Play-Komponenten
Das System ist mit vier Plug-and-Play-Komponenten ausgestattet: einem Hybrid-Retriever, einem LLM-gestützten Informationsextraktor, einem CoT-gesteuerten Filter und einem LLM-gestützten Generator. Diese Komponenten arbeiten zusammen, um globale Informationen und kontextuelle Strukturen zwischen Textabschnitten zu verfeinern und die Beweisdichte zu verbessern.
Überlegene Leistung
Umfangreiche Experimente mit drei Multi-Hop-Datensätzen zeigen, dass LongRAG deutlich besser abschneidet als Langzeitkontext-LLMs (um 6,94 %), fortschrittliche RAG-Systeme (um 6,16 %) und Vanilla RAG (um 17,25 %).
Automatisierte Fine-Tuning-Pipeline
Das Papier stellt eine neuartige automatisierte Instruktionsdatenpipeline vor, um hochwertige Datensätze für das Fine-Tuning zu erstellen. Diese Pipeline verbessert die „Instruktionsbefolgung“ des Systems und erleichtert seine Übertragbarkeit auf andere Domänen.
Fazit
LongRAG stellt einen bedeutenden Fortschritt im Bereich der LCQA dar, indem es die Grenzen aktueller RAG-Systeme adressiert. Sein Dual-Perspektiven-Ansatz und die Plug-and-Play-Komponenten ermöglichen es, globale Informationen effektiv zu extrahieren und spezifische Fakten zu identifizieren, was zu einer überlegenen Leistung führt. Die automatisierte Fine-Tuning-Pipeline verbessert weiterhin seine Robustheit und Übertragbarkeit, was es zu einem vielseitigen Werkzeug für verschiedene Domänen macht.
Quelle(n):
Weiterlesen
Ähnliche Beiträge
Nov 10, 2024
0KommentareVerbesserung von Retrieval Augmented Generation (RAG) für Code-Repositories mithilfe eines agentenbasierten Ansatzes
Dieser Beitrag diskutiert einen agentenbasierten Ansatz zur Verbesserung von Retrieval Augmented Generation (RAG) für Code-Repositories, wie er von den Gewinnern des Agentic RAG-A-Thon vorgestellt wurde.
May 11, 2025
0KommentareRAPTOR: Verbesserung von Retrieval-Augmented Sprachmodellen mit baumorganisiertem Wissen
Dieser Beitrag untersucht RAPTOR, einen neuartigen Ansatz für Retrieval-Augmented Sprachmodelle, der eine hierarchische Baumstruktur von Dokumenten durch rekursives Embedding, Clustering und Zusammenfassen erstellt. Diese Methode ermöglicht den Abruf von Informationen auf verschiedenen Abstraktionsebenen und verbessert die Leistung bei komplexen Frage-Antwort-Aufgaben mit langen Dokumenten im Vergleich zum herkömmlichen Abruf zusammenhängender Blöcke erheblich.
Dec 8, 2024
0KommentarePydanticAI: Produktionsreife Anwendungen mit Generativer KI
PydanticAI ist ein Python-Framework, das entwickelt wurde, um die Erstellung von produktionsreifen Anwendungen mit Generativer KI zu vereinfachen.