Zum Hauptinhalt springen

Chain-of-Thought (CoT)

« Zurück zum Glossar Index

Was ist Chain-of-Thought (CoT)?

Chain-of-Thought (CoT) ist eine Prompting-Technik für große Sprachmodelle (LLMs), die deren Fähigkeit verbessert, komplexe Probleme durch schrittweise, nachvollziehbare Denkprozesse zu lösen.

Statt einer direkten Antwort generiert das Modell eine logische Argumentationskette, die den Lösungsweg transparent macht – ähnlich wie ein Mensch, der seine Gedanken strukturiert dokumentiert.

Wie funktioniert Chain-of-Thought?

CoT zerlegt Aufgaben in logische Zwischenschritte und validiert diese iterativ:

Schlüsselmechanismen:

  • Strukturierte Prompt-Engineering: Aufforderungen wie „Erkläre Schritt für Schritt“ oder Beispielantworten mit Lösungswegen im Prompt.
  • Tokenisierung und Parsing: Zerlegung des Problems in elementare Bestandteile (z. B. mathematische Teilrechnungen).
  • Validierung durch Zwischenschritte: Jeder logische Schritt wird vor dem nächsten überprüft.
  • Erklärungsbasierte Generierung: Das Modell beschreibt seinen Denkprozess in natürlicher Sprache.

Vorteile von Chain-of-Thought

1. Höhere Genauigkeit:

  • Reduktion von Fehlern bei Multi-Step-Aufgaben (z. B. Mathe: 27 × 13 = (27 × 10) + (27 × 3) = 270 + 81 = 351).
  • Besonders effektiv für Arithmetik, logisches Schlussfolgern und Programmierung.

2. Transparenz:

  • Nachvollziehbarkeit der Entscheidungsfindung durch explizite Dokumentation des Denkwegs.
  • Kritisch für sensible Bereiche wie Medizin oder Recht.

3. Flexibilität:

  • Anwendbar auf diverse Aufgaben: Von Textanalyse bis Code-Generierung.
  • Funktioniert ohne spezielles Fine-Tuning des Modells.

Anwendungsbereiche

BereichBeispiele
MathematikLösen mehrstufiger Gleichungen
ProgrammierungDebugging mit schrittweiser Fehleranalyse
MedizinDiagnosefindung durch Symptomabwägung
KundenserviceChatbots mit nachvollziehbaren Antworten
DatenanalyseInterpretation komplexer Datensätze

Herausforderungen

  • Inkonsistente Reasoning-Traces: Modelle können irrelevante oder fehlerhafte Zwischenschritte generieren, die nicht zum Ergebnis führen.
  • Rechenintensiv: Längere Antwortzeiten durch komplexe Denkketten.
  • Modellgrößenabhängigkeit: Kleinere Modelle (z. B. GPT-3.5) zeigen geringere CoT-Fähigkeiten als GPT-4o oder Claude 3.

Häufige Fragen (FAQ)

Wann ist CoT nicht nötig?

Bei einfachen Aufgaben (z. B. Faktenabfragen) oder modernen LLMs wie GPT-4o, die automatisch implizit schlussfolgern.

Wie unterscheidet sich CoT von Standard-Prompting?

Standard-Prompting liefert direkte Antworten, während CoT den Lösungsweg explizit macht („Show your work“).

Kann CoT Halluzinationen reduzieren?

Ja, durch Validierung der Zwischenschritte, aber keine vollständige Eliminierung.

Verwandte Begriffe

  1. Prompt-Engineering
  2. Few-Shot Learning
  3. Reasoning
  4. Sprachmodelle
  5. Tokenisierung
  6. Logisches Schlussfolgern
  7. Mathematische Modellierung
  8. Transparenz in KI
  9. Fehleranalyse
  10. Kausale Inferenz
« Zurück zum Glossar Index

Ralf Dodler

Ralf Dodler ist Unternehmer, Autor und Inhaber von Dodler Consulting, einem Online-Marketing-Unternehmen mit Sitz in Schwalbach (Saar), das sich auf Suchmaschinenoptimierung und Content-Marketing spezialisiert hat.