Zum Hauptinhalt springen

Few-Shot vs Chain-of-Thought Prompting – was ist der Unterschied?

veröffentlicht am von Ralf Dodler

Beispiele im Prompt reichen oft aus, um Sprachmodelle auf Kurs zu bringen. Aber was, wenn die Aufgabe mehr verlangt als bloßes Mustererkennen?

Was, wenn das Modell nicht nur wissen, sondern denken soll?

In diesem Artikel zeige ich, wann Few Shot Prompting an seine Grenzen stößt – und wie Chain-of-Thought Prompting genau dort weiterhilft.

Mit konkreten Beispielen, klaren Unterschieden und einer einfachen Frage: Brauchst du ein Ergebnis – oder einen Gedankengang?

👉 Lies weiter, wenn du wissen willst, wie du komplexe Aufgaben besser steuerst – Schritt für Schritt.

Few-Shot vs Chain-of-Thought Prompting

Was ist Few Shot Prompting?

Few-Shot Prompting ist eine Methode, bei der dem Sprachmodell mehrere Beispiele gegeben werden, bevor es eine Aufgabe löst.

Ziel ist es, dem Modell Muster zu zeigen, an denen es sich orientieren kann – ohne die Aufgabe explizit zu erklären.

Die Technik funktioniert nach dem Prinzip: „So sieht das typischerweise aus – mach es in diesem Stil weiter.“

Dabei spielt es keine Rolle, ob du zwei, drei oder zehn Beispiele gibst – wichtig ist, dass sie repräsentativ, konsistent und variabel genug sind, um das Aufgabenformat klarzumachen.

Beispiel: Kundenstimmen klassifizieren

Aufgabe: Weise Kundenfeedbacks in drei Tonalitätskategorien ein: „positiv“, „neutral“, „kritisch“.

Prompt (Few Shot):

Feedback: "Ich bin absolut begeistert vom neuen Feature!"  
Kategorie: positiv
Feedback: "Das Update war okay, aber nichts Besonderes."  
Kategorie: neutral
Feedback: "Leider hat das Tool im Live-Betrieb versagt."  
Kategorie: kritisch
Feedback: "Ich sehe Potenzial, aber aktuell ist es noch unausgereift."  
Kategorie:

➡️ Das Modell erkennt:

  • Format = Feedback + Kategorie
  • Kategorien = fix (positiv, neutral, kritisch)
  • Sprache = emotional, bewertend, aber nicht numerisch

Few Shot zeigt dem Modell also nicht, wie es denkt, sondern wie Ergebnisse aussehen. Es lernt aus den Beispielen: Welche Wörter, welche Tonalität, welche Form gehört zu welcher Kategorie?

Wann funktioniert Few-Shot gut?

  • Bei Aufgaben mit klarer Struktur, aber variablen Inhalten
  • Wenn das Ziel ist, Regelmäßigkeit in der Ausgabe zu erreichen
  • Bei Klassifikation, Umformulierung, Extraktion, Rollen-Stil-Vorgaben

Doch was, wenn das Problem nicht in der Form, sondern im Denken liegt? Wenn es mehrere Schritte braucht, um zur Antwort zu kommen?

Dann reicht es nicht, das Ergebnis zu zeigen – dann muss man den Weg dorthin vorgeben. Das ist der Moment für Chain-of-Thought Prompting.

Was ist Chain-of-Thought Prompting?

Chain-of-Thought Prompting (CoT) ist eine Technik, bei der du dem Modell nicht nur die Antwort, sondern auch den Denkweg dorthin zeigst.

Anstatt nur Input und Output zu präsentieren, führst du das Modell Schritt für Schritt durch die Argumentation oder Berechnung.

Der Unterschied zu Few Shot:
→ Dort zeigst du was herauskommen soll.
→ Bei Chain-of-Thought zeigst du wie man dorthin kommt.

Beispiel: Schrittweise Rechenfrage

Aufgabe:
Ein T-Shirt kostet 30 €. Es gibt 20 % Rabatt. Wie viel muss ich bezahlen?

Prompt mit Chain-of-Thought:

Frage: Ein T-Shirt kostet 30 €. Es gibt 20 % Rabatt. Wie viel muss ich bezahlen? Antwort: 20 % von 30 € sind 6 €. 30 € minus 6 € ergibt 24 €. Antwort: 24 €

➡️ Das Modell „sieht“, wie man vorgeht – und ahmt nicht nur das Ergebnis nach, sondern den Lösungsweg.

Diese Methode funktioniert besonders gut bei Aufgaben, die mehrere Denk- oder Rechenschritte erfordern, z. B.:

  • Mathematische Aufgaben
  • Logische Schlussfolgerungen
  • Multiple-Choice-Fragen mit Ablenkern
  • Textaufgaben mit versteckten Bedingungen

Chain-of-Thought Prompting macht das Modell erklärbarer – und in vielen Fällen auch genauer.

Im nächsten Abschnitt zeige ich dir die wichtigsten Varianten dieser Technik – von einfachen Gedankenhilfen bis hin zu automatisiert erzeugten Denkpfaden.

Varianten von Chain-of-Thought Prompting

Chain-of-Thought Prompting ist kein festes Rezept, sondern ein Prinzip: Zeig dem Modell, wie du denkst – nicht nur, was du willst.

Je nach Aufgabe, Modellgröße und Ziel kannst du unterschiedliche Varianten einsetzen. Hier die drei wichtigsten:

🧩 Zero-Shot CoT – Denkanstoß mit einem Satz

Das Modell bekommt keine Beispiele, sondern nur die Aufgabe – ergänzt durch eine kurze Anweisung wie:

„Lass uns Schritt für Schritt darüber nachdenken.“

Diese einfache Formulierung reicht oft, um das Modell dazu zu bringen, nicht sofort eine Antwort zu geben, sondern erstmal zu argumentieren.

Beispiel:

Frage: Wenn ein Apfel 30 Cent kostet, wie viel kosten drei Äpfel und eine Banane à 20 Cent? Lass uns Schritt für Schritt denken.

➡️ Das Modell rechnet: 3 × 30 ¢ = 90 ¢ + 20 ¢ = 1,10 €

Wann sinnvoll?

  • Bei einfachen Aufgaben mit verdeckten Teilschritten
  • Wenn du testen willst, ob das Modell „nachdenkt“
  • Schnell und ohne Beispielaufwand

🧪 Few-Shot CoT – Denken mit Vorlage

Hier bekommt das Modell mehrere Beispiele, die jeweils eine Aufgabe plus einen vollständigen Denkweg enthalten.

Beispiel:

Frage: Ein Buch kostet 12 €, ein anderes doppelt so viel. Was kosten beide zusammen? Antwort: Das zweite Buch kostet 2 × 12 € = 24 €. 12 € + 24 € = 36 €. Antwort: 36 € Frage: Ein T-Shirt kostet 30 €. Es gibt 20 % Rabatt. Wie viel muss ich bezahlen? Antwort:

➡️ Das Modell sieht nicht nur, was zu tun ist – sondern wie es logisch vorgeht.

Wann sinnvoll?

  • Bei komplexen Aufgaben mit mehreren Rechenschritten
  • Wenn Zero-Shot CoT zu vage bleibt
  • Für stabile, wiederholbare Argumentationsstrukturen

⚙️ Auto-CoT – Denkbeispiele automatisch erzeugen

Diese Methode wählt automatisch passende Fragen aus und lässt das Modell selbst Denkschritte generieren. So entsteht eine CoT-Beispielsammlung, ohne dass du sie manuell erstellen musst.

Der Ablauf:

  1. Fragen werden in Gruppen mit ähnlicher Struktur sortiert
  2. Für jede Gruppe generiert das Modell ein Denkmuster
  3. Diese Muster werden als Beispiel für neue Aufgaben genutzt

Wann sinnvoll?

  • Wenn viele verschiedene Aufgaben bearbeitet werden sollen
  • Wenn man keine Zeit für manuelle CoT-Beispiele hat
  • Für große Systeme, die viele Prompts automatisch erzeugen müssen

Chain-of-Thought lässt sich unterschiedlich einsetzen – vom einfachen Satz bis zum strukturierten Mehrfachbeispiel.

Welche Variante du nutzt, hängt davon ab, wie viel Hilfe dein Modell braucht – und wie viel Aufwand du investieren willst.

Im nächsten Abschnitt vergleichen wir direkt: Wie unterscheiden sich Few Shot und Chain-of-Thought wirklich – wenn man sie auf dieselbe Aufgabe anwendet?

Wie sich Few Shot und Chain-of-Thought unterscheiden

Beide Techniken helfen dem Modell, eine Aufgabe zu verstehen – aber auf unterschiedliche Weise.

  • Few Shot: zeigt Beispiele und erwartet, dass das Modell daraus ein Muster ableitet.
  • Chain-of-Thought: führt das Modell durch Denkprozesse – Schritt für Schritt.

Schauen wir uns das an einem konkreten Beispiel an:

🧾 Aufgabe:

„Marie hat doppelt so viele Äpfel wie Tom. Tom hat 4 Äpfel. Wie viele Äpfel haben sie zusammen?“

🧪 Few Shot Prompt:

Frage: Tom hat 3 Bücher. Anna hat doppelt so viele. Wie viele Bücher haben sie zusammen?  
Antwort: 3 + (2 × 3) = 9
Frage: Marie hat doppelt so viele Äpfel wie Tom. Tom hat 4 Äpfel. Wie viele Äpfel haben sie zusammen?  
Antwort:

Modellantwort:
4 + (2 × 4) = 12
Antwort: 12

➡️ Ergebnis: korrekt, kurz, effizient – aber ohne Erklärung, wie die Zahlen zusammenhängen.

🧠 Chain-of-Thought Prompt:

Frage: Marie hat doppelt so viele Äpfel wie Tom. Tom hat 4 Äpfel. Wie viele Äpfel haben sie zusammen?
Antwort:  
Tom hat 4 Äpfel.  
Marie hat doppelt so viele, also 2 × 4 = 8 Äpfel.  
Zusammen haben sie 4 + 8 = 12 Äpfel.  
Antwort: 12

➡️ Ergebnis: gleich korrekt – aber transparent und nachvollziehbar. Jeder Schritt wird begründet.

🔍 Fazit aus dem Vergleich:

AspektFew ShotChain-of-Thought
ZielMuster erkennenDenken imitieren
Länge der Antwortkurz und präziselänger, aber erklärend
Kontrolle über Formhoch (durch Beispiele)hoch (durch Denkanleitung)
Nachvollziehbarkeitgeringhoch
Fehleranfälligkeitbei komplexeren Aufgaben höheroft geringer bei mehrstufigen Fragen

In einfachen Fällen führen beide zum gleichen Ergebnis. Aber sobald eine Aufgabe mehrere Denk- oder Entscheidungsschritte erfordert, zeigt sich der Unterschied deutlich:

Few Shot liefert die Lösung – CoT zeigt, wie man dort hinkommt.

Im nächsten Abschnitt geht es genau darum: Wann ist welche Technik die bessere Wahl? – und wie du das für deine Aufgaben einschätzen kannst.

Wann funktioniert welche Methode besser?

Nicht jede Aufgabe braucht Denkpfade – und nicht jede lässt sich durch Beispiele erklären. Ob Few Shot oder Chain-of-Thought besser passt, hängt vom Charakter der Aufgabe ab.

Hier drei einfache Fragen, die dir helfen, die richtige Methode zu wählen:

❓ 1. Reicht ein Muster – oder braucht es ein Denkweg?

  • ✅ Wenn du nur zeigen musst, wie das Ergebnis aussehen soll → Few Shot
  • ✅ Wenn das Modell selbst logische Schritte durchlaufen soll → CoT

📌 Beispiel:
„Klassifiziere diesen Kommentar als positiv, neutral oder kritisch“ → Few Shot
„Welcher der beiden Sätze impliziert einen Widerspruch?“ → CoT

❓ 2. Gibt es eine eindeutige Regel – oder mehrere Teilschritte?

  • ✅ Wenn Input direkt zum Output führt → Few Shot
  • ✅ Wenn Zwischenschritte nötig sind, um zur Lösung zu kommen → CoT

📌 Beispiel:
„Formuliere diesen Satz höflicher“ → Few Shot
„Berechne die Differenz zwischen zwei Rabatten“ → CoT

❓ 3. Ist die Antwort für andere nachvollziehbar – oder nur korrekt?

  • ✅ Wenn die Antwort für dich reicht → Few Shot
  • ✅ Wenn du zeigen willst, wie das Modell denkt (z. B. für Nutzer:innen) → CoT

📌 Beispiel:
„Wie viele Punkte sind das wert?“ → Few Shot
„Begründe, warum dieser Spieler mehr Punkte bekommen hat“ → CoT

Typische Einsatzszenarien

AufgabeEmpfehlungWarum
TonalitätsklassifikationFew ShotFormat fix, kein Denkpfad nötig
Mathe-Textaufgabe mit TeilschrittenChain-of-ThoughtModell braucht schrittweise Ableitung
Formatierung von AntwortbausteinenFew ShotKlarer Output, kein Rechnen
Logisches Argument bewertenChain-of-ThoughtModell soll nachvollziehbar urteilen
Schreibstil anpassenFew ShotBeispiele zeigen Stil
Wahrscheinlichkeitsaussagen begründenCoT oder KombiDenkstruktur oft nötig, Few Shot hilft bei Formulierung

🧭 Kurz gesagt:

  • Few Shot funktioniert am besten, wenn die Aufgabe in Form übersetzbar ist
  • Chain-of-Thought ist überlegen, wenn die Aufgabe gedanklich erschlossen werden muss
  • Und manchmal? Braucht es beides.
    → Wie das aussieht, zeige ich dir im nächsten Abschnitt: Kombination – Few Shot mit Denkpfad.

Kombination: Few Shot Chain-of-Thought Prompting

Manchmal reicht ein Beispiel nicht – und reines Denken ohne Format auch nicht. Dann ist die Kombination aus Few Shot und Chain-of-Thought der beste Weg:

Du zeigst dem Modell mehrere Denkbeispiele, jeweils mit Eingabe, Denkschritt und Antwort. Das nennt man: Few Shot CoT Prompting.

Diese Methode hat sich in vielen Benchmark-Tests als besonders effektiv erwiesen – zum Beispiel bei GPQA, MMLU, DROP oder BigBench.

Aber auch im Alltag hilft sie, komplexe Aufgaben klar und konsistent zu lösen.

Beispiel: Wer hat mehr Punkte gesammelt?

Prompt:

Frage: Anna hat 3 Runden gespielt. Sie bekam 10, 12 und 14 Punkte. Wie viele Punkte hat sie insgesamt? Antwort: 10 + 12 = 22. 22 + 14 = 36. Antwort: 36 Frage: Tim hat 2 Runden gespielt. Er bekam 18 und 21 Punkte. Wie viele Punkte hat er insgesamt? Antwort: 18 + 21 = 39 Antwort: 39 Frage: Wer hat mehr Punkte – Anna oder Tim? Antwort:

Modellantwort (Few Shot CoT):
Anna hat 36 Punkte.
Tim hat 39 Punkte.
39 > 36, also hat Tim mehr Punkte.
Antwort: Tim

➡️ Das Modell hat nicht geraten – es hat gerechnet und begründet.
Und: Es hat die Formatstruktur aus den Beispielen übernommen.

Wann ist diese Kombination sinnvoll?

  • Bei Aufgaben mit mehreren Rechenschritten und vergleichenden Urteilen
  • Wenn Erklärbarkeit und Wiederholbarkeit gleich wichtig sind
  • Wenn du das Modell für mehrere Fälle konsequent kalibrieren willst

Few Shot CoT ist kein Spezialfall – sondern ein leistungsstarkes Prompting-Muster, das du in vielen Kontexten nutzen kannst, in denen es auf Denkweg plus Ergebnis ankommt.

Im nächsten Abschnitt schauen wir auf die Grenzen: Wann wird Chain-of-Thought unnötig – oder sogar problematisch?

Grenzen und Risiken von Chain-of-Thought Prompting

Chain-of-Thought kann mächtig sein – aber auch übertreiben. Wie bei jedem Werkzeug gilt: Der Nutzen hängt davon ab, wo und wie du es einsetzt.

Hier ein paar typische Stolperfallen:

⚖️ 1. Zu viel des Guten

Nicht jede Aufgabe braucht einen Denkweg. Wenn du das Modell bei einfachen Fragen zum „Nachdenken“ zwingst, bekommst du oft unnötig lange, umständliche oder gestelzte Antworten.

📌 Beispiel:
„Was ist die Hauptstadt von Frankreich?“
→ CoT-Antwort:
„Frankreich ist ein Land in Europa. Seine Hauptstadt ist die Stadt mit Regierungssitz…“
→ Besser: Einfach: „Paris.“

🌀 2. Pseudo-Logik: Klingt gut, ist aber falsch

Chain-of-Thought erzeugt Denkpfade – aber das heißt nicht, dass sie immer korrekt sind. Das Modell kann logisch wirken und dabei trotzdem Quatsch begründen.

📌 Beispiel:
„Wenn Lisa älter ist als Tom, und Tom älter als Eva, wer ist die Jüngste?“
→ Modell: „Lisa ist älter als Tom, also könnte Eva die Älteste sein.“ ❌

➡️ Das Modell argumentiert – aber falsch.
Die Logik klingt plausibel, führt aber zur falschen Antwort.

🧠 3. Modellgröße zählt

CoT funktioniert am besten mit großen Sprachmodellen wie GPT-4, PaLM oder Claude 3.
Kleinere Modelle (< 10B Parameter) können die Denkstruktur oft nicht zuverlässig umsetzen – oder „denken sich etwas zusammen“.

Ergebnis:

  • Fehlerhafte Rechenschritte
  • Unvollständige Argumente
  • Form ohne Substanz

🧭 Was heißt das für die Praxis?

  • Setze CoT gezielt ein – dort, wo wirklich Schritte gedacht werden müssen
  • Achte auf Plausibilität der Denkpfade, nicht nur auf deren Existenz
  • Teste bei kleineren Modellen vorher, ob CoT wirklich hilft – oder schadet

Fazit: Muster oder Denken – was braucht dein Prompt?

Prompting ist mehr als das Formulieren einer Aufgabe. Es ist eine Entscheidung:

Willst du dem Modell zeigen, wie das Ergebnis aussieht – oder wie man dorthin kommt?

  • Few Shot Prompting ist stark, wenn du klare Formate hast und das Modell zuverlässig wiederholen soll, was du vorgibst.
  • Chain-of-Thought Prompting ist stark, wenn das Modell denken muss, um zur richtigen Antwort zu kommen.
  • Kombinierst du beides, bekommst du steuerbare, erklärbare und konsistente Ergebnisse – besonders bei komplexen Aufgaben.

Es gibt kein „besser“ oder „schlechter“. Es gibt nur: Was passt zur Aufgabe?

🧭 Wenn du nur ein Gefühl mitnehmen willst:
→ Nutze Few Shot, wenn Struktur zählt.
→ Nutze CoT, wenn Nachvollziehbarkeit zählt.
→ Nutze Few Shot CoT, wenn beides zählt.

Und wenn du dir nicht sicher bist? Teste beide Varianten – und schau nicht nur aufs Ergebnis, sondern wie das Modell dorthin gekommen ist.

Denn oft liegt die Stärke eines guten Prompts nicht im Output, sondern im Weg dahin.

Alle Prompting-Vergleiche im Überblick

Welche Technik passt zu welcher Aufgabe? In dieser Reihe vergleiche ich verschiedene Prompting-Methoden – jeweils mit Beispielen und klarer Entscheidungshilfe:

Portraitfoto von Ralf Dodler - Unternehmer, Autor und Inhaber von Dodler Consulting
Über den Autor
Ralf Dodler ist Unternehmer, Autor und Inhaber von Dodler Consulting, einem Online-Marketing-Unternehmen mit Sitz in Schwalbach (Saar), das sich auf Suchmaschinenoptimierung und Content-Marketing spezialisiert hat.