Few-Shot-CoT
Few-Shot CoT (Few-Shot Chain-of-Thought) bezeichnet eine Prompt-Technik, bei der ein Sprachmodell mehrere Beispiele inklusive expliziter Zwischenschritte erhält, um komplexe Aufgaben strukturiert zu lösen. Die Beispiele demonstrieren nicht nur das Ergebnis, sondern auch die Argumentationskette. Ziel ist die Stabilisierung mehrstufiger Inferenzprozesse.
Funktionsweise und Einordnung
Few-Shot CoT kombiniert zwei Prinzipien:
- Few-Shot Prompting – mehrere Demonstrationsbeispiele
- Chain-of-Thought Prompting – explizite Darstellung der Denk- bzw. Lösungsschritte
Ein typischer Prompt enthält:
- Aufgabenbeschreibung
- mehrere Beispiele mit Schritt-für-Schritt-Lösungen
- neue Aufgabe
Beispielstruktur:
Beispiel 1:
Frage: „Wenn ein Produkt 100 € kostet und 20 % Rabatt erhält, wie hoch ist der Endpreis?“
Lösung:
- 20 % von 100 € sind 20 €.
- 100 € – 20 € = 80 €.
Antwort: 80 €
Neue Frage:
„Ein Produkt kostet 200 € und erhält 10 % Rabatt. Wie hoch ist der Endpreis?“
Das Modell übernimmt die dargestellte Argumentationsstruktur und wendet sie auf den neuen Fall an.
Im Unterschied zu einfachem Few-Shot Prompting wird hier nicht nur das Zielmuster, sondern die gesamte Inferenzkette demonstriert.
Strategische Bedeutung für SEO und AI-Search
AI-Search-Systeme müssen zunehmend komplexe, mehrstufige Fragen beantworten.
Relevanz für Generative Engine Optimization:
- Inhalte sollten klare Argumentationsketten enthalten.
- Definitionen und Ableitungen müssen explizit formuliert sein.
- Mehrstufige Erklärungen erhöhen die maschinelle Nachvollziehbarkeit.
Few-Shot CoT zeigt, dass nicht nur das Ergebnis, sondern der Weg dorthin entscheidend ist. Content mit transparenten Herleitungen ist für inferenzielle Systeme leichter rekonstruierbar.
Strukturierte Begründungen verbessern die Wahrscheinlichkeit korrekter Synthese in generativen Antworten.
Beispiel
Aufgabe:
„Warum reduziert Retrieval-Augmented Generation Halluzinationen?“
Few-Shot-CoT-Beispiel:
Beispiel:
Frage: „Warum entstehen Halluzinationen bei LLMs?“
Schritte:
- LLMs generieren probabilistisch.
- Sie greifen auf internes Trainingswissen zurück.
- Fehlende externe Validierung kann zu falschen Aussagen führen.
Antwort: Halluzinationen entstehen durch rein interne, statistische Generierung.
Neue Frage:
„Warum reduziert RAG Halluzinationen?“
Das Modell überträgt die Struktur und entwickelt eine schrittweise Begründung.
Häufige Fragen zu Few-Shot CoT
Was unterscheidet Few-Shot CoT von normalem Few-Shot Prompting?
Normales Few-Shot Prompting zeigt nur Beispiele mit Ergebnissen. Few-Shot CoT demonstriert zusätzlich explizite Zwischenschritte. Dadurch wird die Inferenzstruktur vorgegeben.
Wann ist Few-Shot CoT besonders sinnvoll?
Few-Shot CoT eignet sich für komplexe, mehrstufige oder analytische Aufgaben. Besonders bei mathematischen, logischen oder argumentativen Problemen verbessert es die Stabilität. Für einfache Aufgaben ist es meist nicht notwendig.
Erhöht Few-Shot CoT den Tokenverbrauch?
Ja, da mehrere Beispiele inklusive Zwischenschritten enthalten sind. Das reduziert das verfügbare Kontextfenster für neue Informationen. Die Effizienz hängt von der Komplexität der Aufgabe ab.
Welche Rolle spielt Few-Shot CoT in AI-Search?
AI-Search-Systeme müssen häufig komplexe Informationen synthetisieren. Few-Shot-CoT-ähnliche Strukturen unterstützen stabile Argumentationsketten. Inhalte mit klaren Herleitungen sind leichter rekonstruierbar.
Verwandte Begriffe
Chain-of-Thought Prompting
Few-Shot Prompting
Zero-Shot Prompting
Reasoning
Reasoning via Planning
Prompt Engineering
Large Language Model
Inference
Generative Engine Optimization