Few-Shot vs Chain-of-Thought Prompting – was ist der Unterschied?
Beispiele im Prompt reichen oft aus, um Sprachmodelle auf Kurs zu bringen. Aber was, wenn die Aufgabe mehr verlangt als bloßes Mustererkennen?
Was, wenn das Modell nicht nur wissen, sondern denken soll?
In diesem Artikel zeige ich, wann Few Shot Prompting an seine Grenzen stößt – und wie Chain-of-Thought Prompting genau dort weiterhilft.
Mit konkreten Beispielen, klaren Unterschieden und einer einfachen Frage: Brauchst du ein Ergebnis – oder einen Gedankengang?
👉 Lies weiter, wenn du wissen willst, wie du komplexe Aufgaben besser steuerst – Schritt für Schritt.

Was ist Few Shot Prompting?
Few-Shot Prompting ist eine Methode, bei der dem Sprachmodell mehrere Beispiele gegeben werden, bevor es eine Aufgabe löst.
Ziel ist es, dem Modell Muster zu zeigen, an denen es sich orientieren kann – ohne die Aufgabe explizit zu erklären.
Die Technik funktioniert nach dem Prinzip: „So sieht das typischerweise aus – mach es in diesem Stil weiter.“
Dabei spielt es keine Rolle, ob du zwei, drei oder zehn Beispiele gibst – wichtig ist, dass sie repräsentativ, konsistent und variabel genug sind, um das Aufgabenformat klarzumachen.
Beispiel: Kundenstimmen klassifizieren
Aufgabe: Weise Kundenfeedbacks in drei Tonalitätskategorien ein: „positiv“, „neutral“, „kritisch“.
Prompt (Few Shot):
Feedback: "Ich bin absolut begeistert vom neuen Feature!"
Kategorie: positiv
Feedback: "Das Update war okay, aber nichts Besonderes."
Kategorie: neutral
Feedback: "Leider hat das Tool im Live-Betrieb versagt."
Kategorie: kritisch
Feedback: "Ich sehe Potenzial, aber aktuell ist es noch unausgereift."
Kategorie:
➡️ Das Modell erkennt:
- Format = Feedback + Kategorie
- Kategorien = fix (positiv, neutral, kritisch)
- Sprache = emotional, bewertend, aber nicht numerisch
Few Shot zeigt dem Modell also nicht, wie es denkt, sondern wie Ergebnisse aussehen. Es lernt aus den Beispielen: Welche Wörter, welche Tonalität, welche Form gehört zu welcher Kategorie?
Wann funktioniert Few-Shot gut?
- Bei Aufgaben mit klarer Struktur, aber variablen Inhalten
- Wenn das Ziel ist, Regelmäßigkeit in der Ausgabe zu erreichen
- Bei Klassifikation, Umformulierung, Extraktion, Rollen-Stil-Vorgaben
Doch was, wenn das Problem nicht in der Form, sondern im Denken liegt? Wenn es mehrere Schritte braucht, um zur Antwort zu kommen?
Dann reicht es nicht, das Ergebnis zu zeigen – dann muss man den Weg dorthin vorgeben. Das ist der Moment für Chain-of-Thought Prompting.
Was ist Chain-of-Thought Prompting?
Chain-of-Thought Prompting (CoT) ist eine Technik, bei der du dem Modell nicht nur die Antwort, sondern auch den Denkweg dorthin zeigst.
Anstatt nur Input und Output zu präsentieren, führst du das Modell Schritt für Schritt durch die Argumentation oder Berechnung.
Der Unterschied zu Few Shot:
→ Dort zeigst du was herauskommen soll.
→ Bei Chain-of-Thought zeigst du wie man dorthin kommt.
Beispiel: Schrittweise Rechenfrage
Aufgabe:
Ein T-Shirt kostet 30 €. Es gibt 20 % Rabatt. Wie viel muss ich bezahlen?
Prompt mit Chain-of-Thought:
Frage: Ein T-Shirt kostet 30 €. Es gibt 20 % Rabatt. Wie viel muss ich bezahlen? Antwort: 20 % von 30 € sind 6 €. 30 € minus 6 € ergibt 24 €. Antwort: 24 €
➡️ Das Modell „sieht“, wie man vorgeht – und ahmt nicht nur das Ergebnis nach, sondern den Lösungsweg.
Diese Methode funktioniert besonders gut bei Aufgaben, die mehrere Denk- oder Rechenschritte erfordern, z. B.:
- Mathematische Aufgaben
- Logische Schlussfolgerungen
- Multiple-Choice-Fragen mit Ablenkern
- Textaufgaben mit versteckten Bedingungen
Chain-of-Thought Prompting macht das Modell erklärbarer – und in vielen Fällen auch genauer.
Im nächsten Abschnitt zeige ich dir die wichtigsten Varianten dieser Technik – von einfachen Gedankenhilfen bis hin zu automatisiert erzeugten Denkpfaden.
Varianten von Chain-of-Thought Prompting
Chain-of-Thought Prompting ist kein festes Rezept, sondern ein Prinzip: Zeig dem Modell, wie du denkst – nicht nur, was du willst.
Je nach Aufgabe, Modellgröße und Ziel kannst du unterschiedliche Varianten einsetzen. Hier die drei wichtigsten:
🧩 Zero-Shot CoT – Denkanstoß mit einem Satz
Das Modell bekommt keine Beispiele, sondern nur die Aufgabe – ergänzt durch eine kurze Anweisung wie:
„Lass uns Schritt für Schritt darüber nachdenken.“
Diese einfache Formulierung reicht oft, um das Modell dazu zu bringen, nicht sofort eine Antwort zu geben, sondern erstmal zu argumentieren.
Beispiel:
Frage: Wenn ein Apfel 30 Cent kostet, wie viel kosten drei Äpfel und eine Banane à 20 Cent? Lass uns Schritt für Schritt denken.
➡️ Das Modell rechnet: 3 × 30 ¢ = 90 ¢ + 20 ¢ = 1,10 €
Wann sinnvoll?
- Bei einfachen Aufgaben mit verdeckten Teilschritten
- Wenn du testen willst, ob das Modell „nachdenkt“
- Schnell und ohne Beispielaufwand
🧪 Few-Shot CoT – Denken mit Vorlage
Hier bekommt das Modell mehrere Beispiele, die jeweils eine Aufgabe plus einen vollständigen Denkweg enthalten.
Beispiel:
Frage: Ein Buch kostet 12 €, ein anderes doppelt so viel. Was kosten beide zusammen? Antwort: Das zweite Buch kostet 2 × 12 € = 24 €. 12 € + 24 € = 36 €. Antwort: 36 € Frage: Ein T-Shirt kostet 30 €. Es gibt 20 % Rabatt. Wie viel muss ich bezahlen? Antwort:
➡️ Das Modell sieht nicht nur, was zu tun ist – sondern wie es logisch vorgeht.
Wann sinnvoll?
- Bei komplexen Aufgaben mit mehreren Rechenschritten
- Wenn Zero-Shot CoT zu vage bleibt
- Für stabile, wiederholbare Argumentationsstrukturen
⚙️ Auto-CoT – Denkbeispiele automatisch erzeugen
Diese Methode wählt automatisch passende Fragen aus und lässt das Modell selbst Denkschritte generieren. So entsteht eine CoT-Beispielsammlung, ohne dass du sie manuell erstellen musst.
Der Ablauf:
- Fragen werden in Gruppen mit ähnlicher Struktur sortiert
- Für jede Gruppe generiert das Modell ein Denkmuster
- Diese Muster werden als Beispiel für neue Aufgaben genutzt
Wann sinnvoll?
- Wenn viele verschiedene Aufgaben bearbeitet werden sollen
- Wenn man keine Zeit für manuelle CoT-Beispiele hat
- Für große Systeme, die viele Prompts automatisch erzeugen müssen
Chain-of-Thought lässt sich unterschiedlich einsetzen – vom einfachen Satz bis zum strukturierten Mehrfachbeispiel.
Welche Variante du nutzt, hängt davon ab, wie viel Hilfe dein Modell braucht – und wie viel Aufwand du investieren willst.
Im nächsten Abschnitt vergleichen wir direkt: Wie unterscheiden sich Few Shot und Chain-of-Thought wirklich – wenn man sie auf dieselbe Aufgabe anwendet?
Wie sich Few Shot und Chain-of-Thought unterscheiden
Beide Techniken helfen dem Modell, eine Aufgabe zu verstehen – aber auf unterschiedliche Weise.
- Few Shot: zeigt Beispiele und erwartet, dass das Modell daraus ein Muster ableitet.
- Chain-of-Thought: führt das Modell durch Denkprozesse – Schritt für Schritt.
Schauen wir uns das an einem konkreten Beispiel an:
🧾 Aufgabe:
„Marie hat doppelt so viele Äpfel wie Tom. Tom hat 4 Äpfel. Wie viele Äpfel haben sie zusammen?“
🧪 Few Shot Prompt:
Frage: Tom hat 3 Bücher. Anna hat doppelt so viele. Wie viele Bücher haben sie zusammen?
Antwort: 3 + (2 × 3) = 9
Frage: Marie hat doppelt so viele Äpfel wie Tom. Tom hat 4 Äpfel. Wie viele Äpfel haben sie zusammen?
Antwort:
Modellantwort:
4 + (2 × 4) = 12
Antwort: 12
➡️ Ergebnis: korrekt, kurz, effizient – aber ohne Erklärung, wie die Zahlen zusammenhängen.
🧠 Chain-of-Thought Prompt:
Frage: Marie hat doppelt so viele Äpfel wie Tom. Tom hat 4 Äpfel. Wie viele Äpfel haben sie zusammen?
Antwort:
Tom hat 4 Äpfel.
Marie hat doppelt so viele, also 2 × 4 = 8 Äpfel.
Zusammen haben sie 4 + 8 = 12 Äpfel.
Antwort: 12
➡️ Ergebnis: gleich korrekt – aber transparent und nachvollziehbar. Jeder Schritt wird begründet.
🔍 Fazit aus dem Vergleich:
Aspekt | Few Shot | Chain-of-Thought |
---|---|---|
Ziel | Muster erkennen | Denken imitieren |
Länge der Antwort | kurz und präzise | länger, aber erklärend |
Kontrolle über Form | hoch (durch Beispiele) | hoch (durch Denkanleitung) |
Nachvollziehbarkeit | gering | hoch |
Fehleranfälligkeit | bei komplexeren Aufgaben höher | oft geringer bei mehrstufigen Fragen |
In einfachen Fällen führen beide zum gleichen Ergebnis. Aber sobald eine Aufgabe mehrere Denk- oder Entscheidungsschritte erfordert, zeigt sich der Unterschied deutlich:
Few Shot liefert die Lösung – CoT zeigt, wie man dort hinkommt.
Im nächsten Abschnitt geht es genau darum: Wann ist welche Technik die bessere Wahl? – und wie du das für deine Aufgaben einschätzen kannst.
Wann funktioniert welche Methode besser?
Nicht jede Aufgabe braucht Denkpfade – und nicht jede lässt sich durch Beispiele erklären. Ob Few Shot oder Chain-of-Thought besser passt, hängt vom Charakter der Aufgabe ab.
Hier drei einfache Fragen, die dir helfen, die richtige Methode zu wählen:
❓ 1. Reicht ein Muster – oder braucht es ein Denkweg?
- ✅ Wenn du nur zeigen musst, wie das Ergebnis aussehen soll → Few Shot
- ✅ Wenn das Modell selbst logische Schritte durchlaufen soll → CoT
📌 Beispiel:
„Klassifiziere diesen Kommentar als positiv, neutral oder kritisch“ → Few Shot
„Welcher der beiden Sätze impliziert einen Widerspruch?“ → CoT
❓ 2. Gibt es eine eindeutige Regel – oder mehrere Teilschritte?
- ✅ Wenn Input direkt zum Output führt → Few Shot
- ✅ Wenn Zwischenschritte nötig sind, um zur Lösung zu kommen → CoT
📌 Beispiel:
„Formuliere diesen Satz höflicher“ → Few Shot
„Berechne die Differenz zwischen zwei Rabatten“ → CoT
❓ 3. Ist die Antwort für andere nachvollziehbar – oder nur korrekt?
- ✅ Wenn die Antwort für dich reicht → Few Shot
- ✅ Wenn du zeigen willst, wie das Modell denkt (z. B. für Nutzer:innen) → CoT
📌 Beispiel:
„Wie viele Punkte sind das wert?“ → Few Shot
„Begründe, warum dieser Spieler mehr Punkte bekommen hat“ → CoT
Typische Einsatzszenarien
Aufgabe | Empfehlung | Warum |
---|---|---|
Tonalitätsklassifikation | Few Shot | Format fix, kein Denkpfad nötig |
Mathe-Textaufgabe mit Teilschritten | Chain-of-Thought | Modell braucht schrittweise Ableitung |
Formatierung von Antwortbausteinen | Few Shot | Klarer Output, kein Rechnen |
Logisches Argument bewerten | Chain-of-Thought | Modell soll nachvollziehbar urteilen |
Schreibstil anpassen | Few Shot | Beispiele zeigen Stil |
Wahrscheinlichkeitsaussagen begründen | CoT oder Kombi | Denkstruktur oft nötig, Few Shot hilft bei Formulierung |
🧭 Kurz gesagt:
- Few Shot funktioniert am besten, wenn die Aufgabe in Form übersetzbar ist
- Chain-of-Thought ist überlegen, wenn die Aufgabe gedanklich erschlossen werden muss
- Und manchmal? Braucht es beides.
→ Wie das aussieht, zeige ich dir im nächsten Abschnitt: Kombination – Few Shot mit Denkpfad.
Kombination: Few Shot Chain-of-Thought Prompting
Manchmal reicht ein Beispiel nicht – und reines Denken ohne Format auch nicht. Dann ist die Kombination aus Few Shot und Chain-of-Thought der beste Weg:
Du zeigst dem Modell mehrere Denkbeispiele, jeweils mit Eingabe, Denkschritt und Antwort. Das nennt man: Few Shot CoT Prompting.
Diese Methode hat sich in vielen Benchmark-Tests als besonders effektiv erwiesen – zum Beispiel bei GPQA, MMLU, DROP oder BigBench.
Aber auch im Alltag hilft sie, komplexe Aufgaben klar und konsistent zu lösen.
Beispiel: Wer hat mehr Punkte gesammelt?
Prompt:
Frage: Anna hat 3 Runden gespielt. Sie bekam 10, 12 und 14 Punkte. Wie viele Punkte hat sie insgesamt? Antwort: 10 + 12 = 22. 22 + 14 = 36. Antwort: 36 Frage: Tim hat 2 Runden gespielt. Er bekam 18 und 21 Punkte. Wie viele Punkte hat er insgesamt? Antwort: 18 + 21 = 39 Antwort: 39 Frage: Wer hat mehr Punkte – Anna oder Tim? Antwort:
Modellantwort (Few Shot CoT):
Anna hat 36 Punkte.
Tim hat 39 Punkte.
39 > 36, also hat Tim mehr Punkte.
Antwort: Tim
➡️ Das Modell hat nicht geraten – es hat gerechnet und begründet.
Und: Es hat die Formatstruktur aus den Beispielen übernommen.
Wann ist diese Kombination sinnvoll?
- Bei Aufgaben mit mehreren Rechenschritten und vergleichenden Urteilen
- Wenn Erklärbarkeit und Wiederholbarkeit gleich wichtig sind
- Wenn du das Modell für mehrere Fälle konsequent kalibrieren willst
Few Shot CoT ist kein Spezialfall – sondern ein leistungsstarkes Prompting-Muster, das du in vielen Kontexten nutzen kannst, in denen es auf Denkweg plus Ergebnis ankommt.
Im nächsten Abschnitt schauen wir auf die Grenzen: Wann wird Chain-of-Thought unnötig – oder sogar problematisch?
Grenzen und Risiken von Chain-of-Thought Prompting
Chain-of-Thought kann mächtig sein – aber auch übertreiben. Wie bei jedem Werkzeug gilt: Der Nutzen hängt davon ab, wo und wie du es einsetzt.
Hier ein paar typische Stolperfallen:
⚖️ 1. Zu viel des Guten
Nicht jede Aufgabe braucht einen Denkweg. Wenn du das Modell bei einfachen Fragen zum „Nachdenken“ zwingst, bekommst du oft unnötig lange, umständliche oder gestelzte Antworten.
📌 Beispiel:
„Was ist die Hauptstadt von Frankreich?“
→ CoT-Antwort:
„Frankreich ist ein Land in Europa. Seine Hauptstadt ist die Stadt mit Regierungssitz…“
→ Besser: Einfach: „Paris.“
🌀 2. Pseudo-Logik: Klingt gut, ist aber falsch
Chain-of-Thought erzeugt Denkpfade – aber das heißt nicht, dass sie immer korrekt sind. Das Modell kann logisch wirken und dabei trotzdem Quatsch begründen.
📌 Beispiel:
„Wenn Lisa älter ist als Tom, und Tom älter als Eva, wer ist die Jüngste?“
→ Modell: „Lisa ist älter als Tom, also könnte Eva die Älteste sein.“ ❌
➡️ Das Modell argumentiert – aber falsch.
Die Logik klingt plausibel, führt aber zur falschen Antwort.
🧠 3. Modellgröße zählt
CoT funktioniert am besten mit großen Sprachmodellen wie GPT-4, PaLM oder Claude 3.
Kleinere Modelle (< 10B Parameter) können die Denkstruktur oft nicht zuverlässig umsetzen – oder „denken sich etwas zusammen“.
Ergebnis:
- Fehlerhafte Rechenschritte
- Unvollständige Argumente
- Form ohne Substanz
🧭 Was heißt das für die Praxis?
- Setze CoT gezielt ein – dort, wo wirklich Schritte gedacht werden müssen
- Achte auf Plausibilität der Denkpfade, nicht nur auf deren Existenz
- Teste bei kleineren Modellen vorher, ob CoT wirklich hilft – oder schadet
Fazit: Muster oder Denken – was braucht dein Prompt?
Prompting ist mehr als das Formulieren einer Aufgabe. Es ist eine Entscheidung:
Willst du dem Modell zeigen, wie das Ergebnis aussieht – oder wie man dorthin kommt?
- Few Shot Prompting ist stark, wenn du klare Formate hast und das Modell zuverlässig wiederholen soll, was du vorgibst.
- Chain-of-Thought Prompting ist stark, wenn das Modell denken muss, um zur richtigen Antwort zu kommen.
- Kombinierst du beides, bekommst du steuerbare, erklärbare und konsistente Ergebnisse – besonders bei komplexen Aufgaben.
Es gibt kein „besser“ oder „schlechter“. Es gibt nur: Was passt zur Aufgabe?
🧭 Wenn du nur ein Gefühl mitnehmen willst:
→ Nutze Few Shot, wenn Struktur zählt.
→ Nutze CoT, wenn Nachvollziehbarkeit zählt.
→ Nutze Few Shot CoT, wenn beides zählt.
Und wenn du dir nicht sicher bist? Teste beide Varianten – und schau nicht nur aufs Ergebnis, sondern wie das Modell dorthin gekommen ist.
Denn oft liegt die Stärke eines guten Prompts nicht im Output, sondern im Weg dahin.
Alle Prompting-Vergleiche im Überblick
Welche Technik passt zu welcher Aufgabe? In dieser Reihe vergleiche ich verschiedene Prompting-Methoden – jeweils mit Beispielen und klarer Entscheidungshilfe:
- Zero-Shot vs One-Shot Prompting
Wann reicht eine gute Anweisung – und wann braucht das Modell ein Beispiel? - One-Shot vs Few-Shot Prompting
Wie viele Beispiele machen den Unterschied – und worauf kommt es wirklich an? - Few-Shot vs Chain-of-Thought Prompting
Ergebnis vormachen oder Denkprozess zeigen? Zwei Techniken für unterschiedliche Anforderungen. - Chain-of-Thought vs Tree-of-Thought Prompting
Linear denken oder systematisch verzweigen? Wann sich strukturierte Gedankengänge lohnen – und wann ein Modell mehrere Lösungswege braucht.