Few-Shot Prompting

« Zurück zum Glossar Index

Few-Shot Prompting bezeichnet eine Prompt-Technik, bei der ein Sprachmodell mehrere Beispiele erhält, um eine neue Aufgabe korrekt auszuführen. Die Beispiele demonstrieren Struktur, Format und Lösungslogik. Ziel ist die Reduktion von Interpretationsspielraum und die Erhöhung der Antwortpräzision.

Funktionsweise und Einordnung

Beim Few-Shot Prompting enthält der Prompt:

  • eine Aufgabenbeschreibung
  • mehrere Demonstrationsbeispiele
  • den neuen Input

Die Beispiele fungieren als implizite Trainingsdaten im Kontextfenster. Das Modell erkennt Muster und überträgt sie auf die neue Anfrage.

Beispielstruktur:

Beispiel 1:
Text: „Das Produkt ist hervorragend.“
Sentiment: Positiv

Beispiel 2:
Text: „Der Service war enttäuschend.“
Sentiment: Negativ

Neue Eingabe:
Text: „Die Lieferung war schnell und zuverlässig.“
Sentiment:

Das Modell extrahiert das Klassifikationsmuster aus den Beispielen und wendet es auf den neuen Fall an.

Few-Shot Prompting ist leistungsfähiger als Zero-Shot oder One-Shot Prompting, da mehrere Referenzpunkte bereitgestellt werden. Der Nachteil ist ein höherer Tokenverbrauch.

Strategische Bedeutung für SEO und AI-Search

AI-Systeme verarbeiten Inhalte häufig ohne explizite Beispiele. Dennoch ist das Prinzip des Few-Shot Prompting strategisch relevant.

Implikationen für Generative Engine Optimization:

  • Konsistente Formatierung erleichtert Mustererkennung.
  • Wiederkehrende Struktur erhöht semantische Stabilität.
  • Klar definierte Beispiele verbessern Extrahierbarkeit.

Wenn Inhalte wiederkehrende Definitions- oder Argumentationsmuster verwenden, fungieren sie implizit als strukturierende Beispiele für nachgelagerte Modelle.

Few-Shot Prompting zeigt, dass Musterkonsistenz ein Qualitätsfaktor für maschinelle Verarbeitung ist.

Beispiel

Aufgabe: Extrahiere die Hauptentität aus einem Satz.

Beispiel 1:
„Ralf Dodler entwickelte Generative Engine Optimization.“
Hauptentität: Ralf Dodler

Beispiel 2:
„Google nutzt Knowledge Graphs für semantische Suche.“
Hauptentität: Google

Neue Eingabe:
„OpenAI trainiert Large Language Models.“

Das Modell erkennt das Muster und extrahiert „OpenAI“ als Hauptentität.

Häufige Fragen zu Few-Shot Prompting

Was unterscheidet Few-Shot von Zero-Shot Prompting?

Few-Shot Prompting enthält mehrere Demonstrationsbeispiele, Zero-Shot keines. Die Beispiele reduzieren Interpretationsspielraum und erhöhen meist die Genauigkeit. Zero-Shot ist kompakter, aber weniger robust.

Wie viele Beispiele sind für Few-Shot erforderlich?

Few-Shot bedeutet nicht eine feste Anzahl, sondern mehrere Beispiele im Kontext. Häufig reichen zwei bis fünf Demonstrationen aus. Die optimale Anzahl hängt von Aufgabenkomplexität und Kontextlänge ab.

Warum verbessert Few-Shot Prompting die Genauigkeit?

Mehrere Beispiele liefern unterschiedliche Musterinstanzen. Das Modell kann daraus stabilere Generalisierungen ableiten. Dadurch sinkt die Wahrscheinlichkeit von Fehlinterpretationen.

Welche Nachteile hat Few-Shot Prompting?

Few-Shot Prompting erhöht den Tokenverbrauch und reduziert das verfügbare Kontextfenster für die eigentliche Aufgabe. Bei sehr langen Beispielen kann die Effizienz sinken. Zudem ist die Auswahl geeigneter Beispiele entscheidend.

Verwandte Begriffe

Zero-Shot Prompting
One-Shot Prompting
Chain-of-Thought Prompting
Prompt Engineering
Contextual Prompting
Large Language Model
Reasoning
System Prompting
Generative Engine Optimization

« Zurück zum Glossar Index