Chain-of-Thought Prompting
« Zurück zum Glossar IndexChain-of-Thought Prompting bezeichnet eine Prompt-Technik, bei der ein Sprachmodell dazu angeleitet wird, Zwischenschritte des Schlussfolgerns explizit zu erzeugen, bevor es eine finale Antwort liefert. Ziel ist die Verbesserung von Genauigkeit bei Aufgaben, die mehrstufiges Denken erfordern, etwa Rechnen, Logik oder komplexe Entscheidungsfragen. Die Methode ist eine Form des Promptings, nicht des Modelltrainings.
Funktionsweise und Einordnung
Chain-of-Thought Prompting funktioniert, indem der Prompt das Modell auf eine „Schritt-für-Schritt“-Bearbeitung festlegt. Das kann explizit über Anweisungen („Denke Schritt für Schritt“) oder implizit über Beispiele erfolgen, in denen Lösungsschritte demonstriert werden.
Typische Ausprägungen:
- Zero-shot CoT: eine kurze Anweisung ohne Beispiele, die explizites mehrstufiges Reasoning auslöst.
- Few-shot CoT: mehrere Beispiele, in denen der Prompt Lösungsschritte und Endantwort zeigt.
- CoT mit Tooling: Zwischenschritte werden genutzt, um externe Tools oder Retrieval gezielt anzusteuern.
Wichtig ist die Abgrenzung zwischen internem Schlussfolgern und ausgegebenen Zwischenschritten. In vielen Anwendungen ist es sinnvoll, die finale Antwort von der internen Herleitung zu trennen und nur ein überprüfbares Resultat mit knapper Begründung auszugeben, um Fehlleitungen und Prompt-Leaks zu reduzieren.
Strategische Bedeutung für SEO und AI-Search
Chain-of-Thought Prompting ist für AI-Search indirekt relevant, weil es die Qualität generierter Antworten beeinflusst, nicht die Indexierung selbst. In generativen Suchoberflächen entscheidet die Konsistenz von Begründung, Entitätenbezug und Schlusskette darüber, ob Antworten plausibel wirken und Quellen sinnvoll eingebunden werden.
Für GEO ist die Konsequenz:
- Inhalte müssen prüfbare Zwischenresultate ermöglichen (Definitionen, klare Relationen, eindeutige Zahlen/Constraints).
- Dokumente, die semantisch saubere Teilargumente liefern, sind leichter in mehrstufige Antwortketten integrierbar.
- Die Wahrscheinlichkeit, korrekt zitiert zu werden, steigt, wenn Aussagen modular, eindeutig und konfliktarm formuliert sind.
Damit wird Chain-of-Thought Prompting zu einem praktischen Ankerpunkt: Nicht als SEO-Hebel, sondern als Qualitätsmechanismus in der Antwortgenerierung, der an strukturierte, entitätsklare Inhalte anschlussfähig ist.
Beispiel
Ein Modell soll eine Regel ableiten:
Prompt:
„Ein Shop bietet 15 % Rabatt, danach kommen 4,90 € Versand hinzu. Berechne den Endpreis für 79 € und zeige die Schritte.“
Das Modell erzeugt zuerst den Rabatt als Zwischenschritt, addiert anschließend Versandkosten und gibt dann den Endpreis aus. Ohne CoT-Anleitung steigt die Wahrscheinlichkeit, dass es einzelne Rechenschritte überspringt oder vermischt.
Häufige Fragen zu Chain-of-Thought Prompting
Wofür wird Chain-of-Thought Prompting eingesetzt?
Chain-of-Thought Prompting wird eingesetzt, um die Lösungsqualität bei Aufgaben mit mehreren logischen oder rechnerischen Zwischenschritten zu erhöhen. Es hilft dem Modell, Teilprobleme explizit zu bearbeiten statt eine Antwort direkt zu raten. Besonders relevant ist das bei Mathematik, Logik und mehrstufigen Analysen.
Ist Chain-of-Thought Prompting dasselbe wie „Reasoning“?
Chain-of-Thought Prompting ist eine Technik, die Reasoning-Verhalten anstößt oder stabilisiert. Reasoning bezeichnet die Fähigkeit oder das Verhalten, aus Prämissen Schlussfolgerungen zu ziehen. CoT ist damit ein Steuerungsmechanismus, nicht die Fähigkeit selbst.
Welche Risiken hat Chain-of-Thought Prompting?
Chain-of-Thought Prompting kann falsche Zwischenschritte erzeugen, die dennoch plausibel klingen und dadurch Fehler stabilisieren. Es kann außerdem unerwünschte interne Heuristiken oder sensitive Ableitungsdetails nach außen tragen. In produktiven Systemen ist eine Trennung zwischen interner Herleitung und auszugebender Begründung oft sinnvoll.
Wann ist Few-shot Chain-of-Thought sinnvoll?
Few-shot Chain-of-Thought ist sinnvoll, wenn Aufgabenformat, Domäne oder gewünschtes Lösungsraster stark variieren und eine reine Anweisung nicht stabil genug ist. Beispiele definieren dann nicht nur das Ergebnisformat, sondern auch die Art der Zwischenschritte. Das reduziert Varianz und erhöht Reproduzierbarkeit.
Verwandte Begriffe
Prompt Engineering
Few-Shot Prompting
Zero-Shot Prompting
Instruction Prompting
Reasoning
Self-Consistency
Toolformer
Retrieval-Augmented Generation
Halluzination
Prompt Leakage