Chain-of-Thought (CoT)
Was ist Chain-of-Thought (CoT)?
Chain-of-Thought (CoT) ist eine Prompting-Technik für große Sprachmodelle (LLMs), die deren Fähigkeit verbessert, komplexe Probleme durch schrittweise, nachvollziehbare Denkprozesse zu lösen.
Statt einer direkten Antwort generiert das Modell eine logische Argumentationskette, die den Lösungsweg transparent macht – ähnlich wie ein Mensch, der seine Gedanken strukturiert dokumentiert.
Wie funktioniert Chain-of-Thought?
CoT zerlegt Aufgaben in logische Zwischenschritte und validiert diese iterativ:
Schlüsselmechanismen:
- Strukturierte Prompt-Engineering: Aufforderungen wie „Erkläre Schritt für Schritt“ oder Beispielantworten mit Lösungswegen im Prompt.
- Tokenisierung und Parsing: Zerlegung des Problems in elementare Bestandteile (z. B. mathematische Teilrechnungen).
- Validierung durch Zwischenschritte: Jeder logische Schritt wird vor dem nächsten überprüft.
- Erklärungsbasierte Generierung: Das Modell beschreibt seinen Denkprozess in natürlicher Sprache.
Vorteile von Chain-of-Thought
1. Höhere Genauigkeit:
- Reduktion von Fehlern bei Multi-Step-Aufgaben (z. B. Mathe: 27 × 13 = (27 × 10) + (27 × 3) = 270 + 81 = 351).
- Besonders effektiv für Arithmetik, logisches Schlussfolgern und Programmierung.
2. Transparenz:
- Nachvollziehbarkeit der Entscheidungsfindung durch explizite Dokumentation des Denkwegs.
- Kritisch für sensible Bereiche wie Medizin oder Recht.
3. Flexibilität:
- Anwendbar auf diverse Aufgaben: Von Textanalyse bis Code-Generierung.
- Funktioniert ohne spezielles Fine-Tuning des Modells.
Anwendungsbereiche
Bereich | Beispiele |
---|---|
Mathematik | Lösen mehrstufiger Gleichungen |
Programmierung | Debugging mit schrittweiser Fehleranalyse |
Medizin | Diagnosefindung durch Symptomabwägung |
Kundenservice | Chatbots mit nachvollziehbaren Antworten |
Datenanalyse | Interpretation komplexer Datensätze |
Herausforderungen
- Inkonsistente Reasoning-Traces: Modelle können irrelevante oder fehlerhafte Zwischenschritte generieren, die nicht zum Ergebnis führen.
- Rechenintensiv: Längere Antwortzeiten durch komplexe Denkketten.
- Modellgrößenabhängigkeit: Kleinere Modelle (z. B. GPT-3.5) zeigen geringere CoT-Fähigkeiten als GPT-4o oder Claude 3.
Häufige Fragen (FAQ)
Wann ist CoT nicht nötig?
Bei einfachen Aufgaben (z. B. Faktenabfragen) oder modernen LLMs wie GPT-4o, die automatisch implizit schlussfolgern.
Wie unterscheidet sich CoT von Standard-Prompting?
Standard-Prompting liefert direkte Antworten, während CoT den Lösungsweg explizit macht („Show your work“).
Kann CoT Halluzinationen reduzieren?
Ja, durch Validierung der Zwischenschritte, aber keine vollständige Eliminierung.
Verwandte Begriffe
- Prompt-Engineering
- Few-Shot Learning
- Reasoning
- Sprachmodelle
- Tokenisierung
- Logisches Schlussfolgern
- Mathematische Modellierung
- Transparenz in KI
- Fehleranalyse
- Kausale Inferenz