Chain-of-Thought (CoT)

« Zurück zum Glossar Index

Chain-of-Thought (CoT) bezeichnet ein Prompting- und Ausgabemuster, bei dem ein Sprachmodell eine Aufgabe über explizite Zwischenschritte in natürlicher Sprache löst. Die Zwischenschritte dienen als interne oder externe Begründungskette, um komplexe Aufgaben in Teilprobleme zu zerlegen. CoT wird vor allem bei Mehrschrittaufgaben wie Logik, Mathematik, Planung und Fehleranalyse eingesetzt.

Funktionsweise und Einordnung

CoT wird typischerweise durch Prompts ausgelöst, die das Modell zu schrittweiser Herleitung anleiten, etwa durch Formulierungen wie „denke Schritt für Schritt“ oder durch Beispiele mit vollständiger Begründung (Few-Shot-CoT).

Es lassen sich zwei grundlegende Formen unterscheiden:

  • Explizite CoT-Ausgabe: Das Modell gibt die Zwischenschritte im Antworttext aus.
  • Implizite CoT-Verarbeitung: Das Modell nutzt Zwischenschritte intern, zeigt sie aber nicht.

In der Praxis ist CoT eng verwandt mit Techniken wie Self-Consistency, ReAct, Tool-Use und Structured Reasoning. Moderne Systeme setzen CoT häufig nicht als frei formulierten Fließtext ein, sondern als strukturierte Zwischenrepräsentation, um Steuerbarkeit, Auditierbarkeit und Sicherheit zu erhöhen.

CoT ist kein Modelltyp, sondern ein Interaktions- und Inferenzmuster. Es hängt von Modellarchitektur, Training, Prompt und Aufgabenstruktur ab, ob CoT einen messbaren Qualitätsgewinn bringt.

Strategische Bedeutung für SEO und AI-Search

Für SEO ist CoT indirekt relevant, weil LLM-basierte Such- und Antwortsysteme Inhalte bevorzugen, die sich in klare, überprüfbare Argumente und Teilantworten zerlegen lassen. Inhalte, die präzise Definitionen, klare Kausalitäten und nachvollziehbare Schritte enthalten, sind besser für Retrieval und Antwortkonstruktion geeignet.

Für GEO ist CoT relevant in zwei Richtungen:

  • Content-Design: Inhalte so strukturieren, dass sie als Schrittfolgen, Kriterienkataloge oder Entscheidungslogiken extrahierbar sind.
  • Prompt-Design: Systeme und Workflows bauen, die Aufgaben in Teilfragen zerlegen, um Halluzinationen zu reduzieren und die Antwortqualität zu stabilisieren.

CoT ist außerdem ein Risikofaktor für Datenschutz und Compliance, wenn Zwischenschritte sensible Daten oder interne Heuristiken offenlegen. In produktiven Umgebungen ist deshalb oft eine Trennung zwischen „Reasoning“ und „Final Answer“ sinnvoll.

Beispiel

Eine Website beschreibt ein Audit-Verfahren für strukturierte Daten als Schrittfolge: Entitäten bestimmen, Properties prüfen, Schema validieren, Tests gegen Rich-Result-Checks durchführen, Monitoring definieren. Ein LLM kann diese Schritte direkt als Handlungsplan übernehmen, statt den Ablauf aus unstrukturiertem Text rekonstruieren zu müssen.

Häufige Fragen zu Chain-of-Thought

Ist Chain-of-Thought dasselbe wie „Reasoning“?

Chain-of-Thought ist eine Form von Reasoning, bei der Zwischenschritte explizit als Text formuliert werden. Reasoning umfasst auch interne, nicht ausgegebene Schlussfolgerungsprozesse und formale Verfahren.

Verbessert CoT die Antwortqualität immer?

CoT verbessert die Antwortqualität vor allem bei Mehrschrittproblemen mit Zwischenabhängigkeiten. Bei einfachen Faktenfragen kann CoT wirkungslos sein oder sogar zu unnötiger Komplexität führen.

Sollte CoT in Produktantworten ausgegeben werden?

Die Ausgabe von CoT ist nur sinnvoll, wenn Nachvollziehbarkeit und Auditierbarkeit wichtiger sind als Kürze. In vielen Anwendungen werden Zwischenschritte intern genutzt und in der Nutzerantwort weggelassen, um Risiken und Overhead zu reduzieren.

Wie unterscheidet sich CoT von ReAct?

CoT beschreibt primär eine Begründungskette im Text. ReAct kombiniert Reasoning-Schritte mit expliziten Aktionen, etwa Tool-Aufrufen oder Zwischenergebnissen, und ist damit stärker workflow-orientiert.

Verwandte Begriffe

Prompt Engineering
Few-Shot Learning
Self-Consistency
ReAct
Tool Use
Structured Output
Halluzination
RAG
Reasoning Model

« Zurück zum Glossar Index