Zum Hauptinhalt springen

Retrieval Augmented Generation

« Zurück zum Glossar Index

Was ist Retrieval Augmented Generation (RAG)?

Retrieval Augmented Generation (RAG) ist ein KI-Verfahren, das Large Language Models (LLMs) mit externen Wissensquellen kombiniert. 

Es ermöglicht Sprachmodellen, gezielt auf aktuelle oder domänenspezifische Daten zuzugreifen, statt sich ausschließlich auf ihre Trainingsdaten zu verlassen.

Dadurch werden präzisere Antworten generiert und Halluzinationen reduziert. RAG wird häufig in Chatbots, Wissensmanagementsystemen oder Anwendungen mit firmeninternen Datenbanken eingesetzt.

Wie funktioniert RAG?

RAG verbindet Informationsabruf (Retrieval) mit textgenerierenden KI-Modellen (Generation). Der Prozess umfasst vier Schritte:

  1. Datenaufbereitung: Externe Daten werden bereinigt und in verwertbare Textabschnitte (Chunks) unterteilt.
  2. Indexierung: Die Chunks werden als Vektoren in einer Datenbank gespeichert, um schnelle semantische Suchen zu ermöglichen.
  3. Abruf: Bei einer Anfrage durchsucht das System die Datenbank nach passenden Informationen.
  4. Generierung: Das LLM verarbeitet die gefundenen Daten und die ursprüngliche Anfrage, um eine kontextangepasste Antwort zu erstellen.

Welche Vorteile bietet RAG?

  • Aktualität: Nutzung neuester Informationen ohne aufwändiges Neutraining des LLMs.
  • Kosteneffizienz: Keine Anpassung der Modellparameter erforderlich.
  • Transparenz: Quellenangaben ermöglichen die Überprüfung von Antworten.
  • Domänenspezifische Anwendungen: Integration firmeninterner Daten (z. B. Handbücher, Kundendaten).

Typische Anwendungsfälle

BereichBeispiele
KundenserviceChatbots mit Zugriff auf Produktdatenbanken
WissenschaftRechercheunterstützung durch Fachpublikationen
Unternehmensinterne ITAutomatisierte Beantwortung von HR-Fragen mittels interner Richtlinien

Häufige Fragen (FAQ)

Warum reduziert RAG Halluzinationen?

Durch die strikte Orientierung an externen Quellen werden spekulative Antworten minimiert.

Kann RAG mit strukturierten Daten arbeiten?

Ja, RAG unterstützt auch Knowledge Graphs und relationale Datenbanken.

Wie unterscheidet sich RAG von Fine-Tuning?

RAG ergänzt das LLM dynamisch mit externem Wissen, während Fine-Tuning die Modellparameter anpasst.

Ist RAG für Echtzeitanwendungen geeignet?

Ja, moderne Vektordatenbanken ermöglichen Antwortzeiten im Millisekundenbereich.

Welche Unternehmen nutzen RAG?

Meta, AWS und Google Cloud setzen RAG für KI-gestützte Wissenssysteme ein.

Verwandte Begriffe

  1. Large Language Models (LLM)
  2. Halluzinationen (KI)
  3. Vektordatenbank
  4. Semantische Suche
  5. Prompt Engineering
  6. Knowledge Graph
  7. Fine-Tuning
  8. Generative KI
  9. Natural Language Processing (NLP)
  10. Transformer-Architektur
« Zurück zum Glossar Index