🚀 Master Prompt Engineering and building AI Agents in our NEW courses! Use PROMPTING20 for 20% off ➜ Enroll now
Retrieval Augmented Generation

Retrieval Augmented Generation (RAG)

Allgemeine Sprachmodelle können feinabgestimmt werden, um mehrere gÀngige Aufgaben wie Sentiment-Analyse und Erkennung von EntitÀten zu realisieren. Diese Aufgaben erfordern in der Regel kein zusÀtzliches Hintergrundwissen.

FĂŒr komplexere und wissensintensive Aufgaben ist es möglich, ein auf Sprachmodellen basierendes System zu entwickeln, das Zugang zu externen Wissensquellen hat, um Aufgaben zu vervollstĂ€ndigen. Dies ermöglicht eine höhere faktische Konsistenz, verbessert die ZuverlĂ€ssigkeit generierter Antworten und hilft, das Problem der "Halluzination" abzumildern.

Meta AI-Forscher haben eine Methode namens Retrieval Augmented Generation (RAG) (opens in a new tab) eingefĂŒhrt, um solche wissensintensiven Aufgaben anzugehen. RAG kombiniert eine Informationsabrufkomponente mit einem Textgenerator-Modell. RAG kann feinabgestimmt und sein internes Wissen kann auf effiziente Weise und ohne Neutraining des gesamten Modells geĂ€ndert werden.

RAG nimmt eine Eingabe und holt eine Menge relevanter/unterstĂŒtzender Dokumente von einer Quelle (z.B. Wikipedia) ab. Die Dokumente werden als Kontext mit dem ursprĂŒnglichen Eingabe-Prompt zusammengefĂŒgt und an den Textgenerator ĂŒbergeben, der den endgĂŒltigen Ausgangstext produziert. Dies macht RAG anpassungsfĂ€hig fĂŒr Situationen, in denen sich Fakten im Laufe der Zeit entwickeln könnten. Dies ist sehr nĂŒtzlich, da das parametrische Wissen der LLMs statisch ist. RAG ermöglicht es Sprachmodellen, ein Neutraining zu umgehen und ĂŒber eine abrufbasierte Generation Zugang zu den neuesten Informationen zu erhalten, um verlĂ€ssliche Ausgaben zu generieren.

Lewis et al., (2021) schlugen ein allgemeines Feinabstimmungsrezept fĂŒr RAG vor. Ein vortrainiertes seq2seq-Modell wird als parametrisches GedĂ€chtnis verwendet und ein dichter Vektorindex von Wikipedia dient als nicht-parametrisches GedĂ€chtnis (zugĂ€nglich ĂŒber einen neuronal vortrainierten Abfrager). Unten ist eine Übersicht, wie der Ansatz funktioniert:

RAG

Bildquelle: Lewis et el. (2021) (opens in a new tab)

RAG zeigt starke Leistung auf mehreren Benchmarks wie Natural Questions (opens in a new tab), WebQuestions (opens in a new tab) und CuratedTrec. RAG generiert Antworten, die faktischer, spezifischer und vielfĂ€ltiger sind, wenn sie auf MS-MARCO- und Jeopardy-Fragen getestet werden. RAG verbessert auch die Ergebnisse bei der FaktenĂŒberprĂŒfung von FEVER.

Dies zeigt das Potenzial von RAG als eine praktikable Option, um die Ausgaben von Sprachmodellen bei wissensintensiven Aufgaben zu verbessern.

In jĂŒngerer Zeit haben sich diese abrufbasierten AnsĂ€tze vergrĂ¶ĂŸert und werden mit populĂ€ren LLMs wie ChatGPT kombiniert, um die FĂ€higkeiten und die faktische Konsistenz zu verbessern.

Ein einfaches Beispiel fĂŒr die Verwendung von Abrufsystemen und LLMs zur Beantwortung von Fragen mit Quellen (opens in a new tab) finden Sie in der LangChain-Dokumentation.