Candidate Generation: Wie Suchsysteme mögliche Treffer auswählen
Nicht der Mangel an Informationen ist in der Suche meist das Problem, sondern die Notwendigkeit, aus Milliarden Dokumenten, Produkten oder Passagen in kürzester Zeit eine sinnvolle Vorauswahl zu treffen. Bevor Relevanz im Detail bewertet werden kann, muss der Suchraum daher drastisch verkleinert werden.
Genau an dieser Stelle setzt Candidate Generation an. Dieser Schritt bestimmt, welche möglichen Treffer in die engere Auswahl kommen und welche Inhalte für nachgelagerte Ranking-, Re-Ranking- oder Antwortsysteme unsichtbar bleiben. Das ist besonders relevant für moderne Suchmaschinen, Recommendation-Systeme und AI-Search-Architekturen.
Candidate Generation gehört zum größeren Feld des Information Retrieval, das beschreibt, wie Suchsysteme Informationen finden, filtern, bewerten und bereitstellen.
In diesem Artikel erfährst du, wie Candidate Generation funktioniert, welche Verfahren dabei eingesetzt werden und warum dieser Schritt für klassische Suche, semantische Suche und AI-Search von zentraler Bedeutung ist.

Was ist Candidate Generation?
Candidate Generation ist die erste Abrufstufe eines Suchsystems, in der aus einem großen Index eine begrenzte Menge potenziell relevanter Treffer für die weitere Bewertung ausgewählt wird.
Diese Vorauswahl bildet die Grundlage für alle weiteren Schritte wie Ranking, Re-Ranking, Passage-Auswahl oder Antwortgenerierung.
Ohne Candidate Generation müsste ein System jeden Inhalt vollständig mit jeder Suchanfrage vergleichen, was in realen Umgebungen zu langsam und zu teuer wäre.
Suchsysteme trennen Vorauswahl von Feinauswahl
Moderne Suchsysteme arbeiten fast nie in einem einzigen Schritt. Sie teilen die Suche in eine schnelle Kandidatenauswahl und eine präzisere Bewertung auf. Candidate Generation reduziert dabei den Suchraum, damit spätere Modelle auf einer kleineren, besser handhabbaren Trefferliste arbeiten können.
Dieser Aufbau ist für Websuche, E-Commerce-Suche, Enterprise Search und AI-Search gleichermaßen relevant. Besonders in generativen Umgebungen entscheidet die Qualität der Vorauswahl darüber, welche Dokumente, Passagen oder Wissenseinheiten später überhaupt für eine Antwort verfügbar sind.
In modernen Retrieval-Systemen folgt auf die Candidate Generation meist eine präzisere Bewertungsstufe wie Ranking, Re-Ranking oder Antwortgenerierung.
Candidate Generation reduziert den Suchraum
Candidate Generation reduziert den Suchraum, indem nur ein kleiner Teil aller verfügbaren Inhalte zur weiteren Bewertung zugelassen wird. Ein Suchsystem verarbeitet nicht sofort das gesamte Indexvolumen, sondern erzeugt zunächst eine Menge potenziell passender Treffer, oft in der Größenordnung von einigen Hundert oder Tausend Ergebnissen.
Der Mechanismus dahinter ist ökonomisch. Schnelle Abrufverfahren priorisieren Geschwindigkeit und Breite, während spätere Ranking-Modelle Genauigkeit priorisieren. Dadurch entsteht eine Pipeline, in der frühe Stufen effizient filtern und späte Stufen differenziert bewerten.
Ein typisches Beispiel ist eine Produktsuche nach „leichter Laufschuh für Halbmarathon“. Die Candidate Generation sucht zunächst Dokumente oder Produkte, die sprachlich, semantisch oder attributiv in Frage kommen. Erst danach bewertet das Ranking genauer, welches Produkt für die Anfrage tatsächlich am besten passt.
Für AI-Search ist dieser Schritt besonders kritisch, weil ein Sprachmodell nur mit dem Material arbeiten kann, das vorher abgerufen wurde. Schlechte Kandidatenlisten führen deshalb nicht nur zu schwachen Rankings, sondern auch zu unvollständigen oder falschen Antworten.
Candidate Generation bestimmt den recall-orientierten Erstzugriff
Candidate Generation ist in erster Linie recall-orientiert. Das System versucht, möglichst viele relevante Treffer in die Kandidatenmenge aufzunehmen, auch wenn darunter zunächst noch weniger präzise Ergebnisse sind.
Der Grund dafür ist einfach: Ein relevanter Treffer, der in dieser Phase nicht ausgewählt wird, kann später nicht mehr durch ein besseres Ranking gerettet werden. Candidate Generation entscheidet also nicht endgültig über die Reihenfolge, aber sie entscheidet oft endgültig über die Sichtbarkeit.
Ein Beispiel zeigt den Unterschied. Wenn ein System bei einer Frage zu „passage retrieval in AI-Search“ nur Dokumente mit exakter Wortübereinstimmung auswählt, fehlen möglicherweise relevante Inhalte mit Begriffen wie „Segment Retrieval“ oder „semantischer Abruf“. Das Ranking könnte diese Inhalte nie berücksichtigen, weil sie gar nicht mehr im Kandidatensatz auftauchen.
Deshalb ist Candidate Generation eine recall-kritische Stufe. Je besser sie relevante Varianten, Synonyme, Entitäten und thematische Nachbarschaften erfasst, desto robuster wird die gesamte Suche.
Abrufverfahren erzeugen unterschiedliche Kandidatenmengen
Die Qualität der Candidate Generation hängt stark davon ab, welches Abrufverfahren ein System verwendet. Unterschiedliche Verfahren erzeugen unterschiedliche Kandidatenmengen, weil sie Relevanz auf verschiedene Weise approximieren.
In der Praxis kombinieren viele Systeme mehrere Verfahren. Das ist sinnvoll, weil lexikalische Suche, semantische Suche und strukturierte Filter jeweils andere Stärken besitzen. Die folgenden Mechanismen gehören zu den wichtigsten Ansätzen.
Lexikalische Suche findet Kandidaten über Begriffsübereinstimmung
Lexikalische Candidate Generation findet Kandidaten über Wortformen, Token-Überschneidungen und statistische Gewichtungen. Verfahren wie inverted indexes und BM25 sind dafür klassische Beispiele.
Der Mechanismus ist effizient, weil das System sehr schnell erkennen kann, welche Dokumente die Anfragebegriffe enthalten. Dadurch eignet sich der Ansatz besonders für große Datenbestände, präzise Suchbegriffe und Anfragen mit klaren Fachbegriffen, Produktnamen oder Entitäten.
Eine Anfrage wie „Canon EOS R8 Akkulaufzeit“ profitiert stark von lexikalischer Suche, weil exakte Begriffe hier eine hohe Signalkraft haben. Für AI-Search bleibt dieser Ansatz relevant, weil viele Faktenfragen, Navigationsanfragen und markenspezifische Suchen eine starke lexikalische Komponente besitzen.
Die Grenze liegt dort, wo Nutzer andere Begriffe verwenden als die Dokumente. Dann sinkt der Recall, obwohl semantisch passende Inhalte vorhanden wären.
Dense Retrieval findet Kandidaten über semantische Ähnlichkeit
Dense Retrieval findet Kandidaten über Vektor-Repräsentationen von Anfragen und Inhalten. Das System vergleicht nicht nur Wörter, sondern mathematische Repräsentationen semantischer Nähe.
Der Mechanismus erlaubt es, auch dann passende Kandidaten zu finden, wenn Anfrage und Dokument unterschiedliche Formulierungen verwenden. Dadurch steigt die Wahrscheinlichkeit, inhaltlich passende Ergebnisse zu finden, obwohl keine exakte Wortübereinstimmung vorliegt.
Eine Anfrage wie „Wie wählen Suchmaschinen mögliche Ergebnisse aus?“ kann so Inhalte zu „Candidate Generation“, „Initial Retrieval“ oder „Erstkandidatenbildung“ erreichen, obwohl die exakte Formulierung nicht identisch ist. Das macht Dense Retrieval besonders wertvoll für semantische Suche, Passage Retrieval und Retrieval-Augmented Generation.
Für AI-Search ist Dense Retrieval wichtig, weil viele Nutzer in natürlicher Sprache fragen und nicht in indexfreundlichen Keywords. Semantische Candidate Generation schließt deshalb die Lücke zwischen Nutzerformulierung und Dokumentformulierung.
Hybride Systeme kombinieren lexikalische und semantische Signale
Hybride Systeme kombiniert lexikalische und semantische Verfahren, um die Schwächen einzelner Methoden auszugleichen. Das System erzeugt Kandidaten also aus mehreren Abrufkanälen und führt diese anschließend zusammen.
Der Vorteil liegt in der Robustheit. Exakte Begriffe, Entitäten und Produktnamen bleiben über lexikalische Verfahren gut erfassbar, während semantische Varianten und paraphrasierte Inhalte über Dense Retrieval eingebracht werden. Das erhöht den Recall, ohne Präzisionssignale vollständig aufzugeben.
Ein Beispiel ist eine Anfrage wie „beste Methode zur Treffer-Vorauswahl in Suchsystemen“. Lexikalische Suche erfasst Dokumente mit „Treffer“ und „Vorauswahl“, während semantische Suche Inhalte zu „Candidate Generation“, „Initial Retrieval“ und „First-Stage Retrieval“ ergänzt.
Hybride Ansätze sind deshalb in modernen Sucharchitekturen oft der Standard. Sie eignen sich besonders für AI-Search-Systeme, die sowohl klassische Keyword-Muster als auch offene, natürlichsprachliche Anfragen abdecken müssen.
Filterbasierte Systeme begrenzen Kandidaten über Attribute und Regeln
Filterbasierte Candidate Generation begrenzt Kandidaten über strukturierte Attribute wie Kategorie, Preis, Sprache, Region, Zugriffsrechte oder Dokumenttyp. Das System nutzt dabei keine semantische Nähe, sondern explizite Bedingungen.
Dieser Mechanismus ist besonders in E-Commerce, Enterprise Search und Datenbanksuche wichtig. Eine Suche nach „rote Winterjacke Damen Größe M“ benötigt nicht nur thematische Relevanz, sondern auch harte Filter auf Farbe, Zielgruppe und Größe.
Der Vorteil liegt in der Kontrolle. Filter verhindern, dass irrelevante Objekte überhaupt in die Kandidatenmenge gelangen. Der Nachteil liegt in der geringen Flexibilität, wenn Metadaten fehlen oder unvollständig sind.
In der Praxis ergänzen strukturierte Filter häufig andere Candidate-Generation-Methoden. Das System erzeugt dann keine reine Textvorauswahl, sondern eine thematisch und strukturell passende Trefferbasis.
Kandidatenqualität beeinflusst Ranking und Antwortqualität
Candidate Generation entscheidet nicht allein über das Endergebnis, aber sie legt fest, welche Inhalte das Ranking oder ein generatives System überhaupt sehen kann. Die Qualität dieser Stufe hat deshalb direkten Einfluss auf Relevanz, Vollständigkeit und Antwortsicherheit.
Gerade in AI-Search-Umgebungen ist das wichtig, weil ein Sprachmodell keine fehlenden Quellen kompensieren kann. Wenn relevante Passagen nicht in den Kandidatenpool gelangen, fehlt dem System die Grundlage für eine belastbare Antwort.
Fehlende Kandidaten begrenzen spätere Relevanzbewertung
Fehlende Kandidaten begrenzen jede spätere Relevanzbewertung. Ein Re-Ranker oder Sprachmodell kann nur innerhalb der vorgelegten Kandidatenmenge optimieren.
Das bedeutet praktisch: Gute Ranking-Modelle lösen keine Recall-Probleme. Wenn eine relevante Quelle wegen schwacher Candidate Generation nie erscheint, bleibt sie für alle späteren Stufen unsichtbar. Dieses Prinzip gilt in Websuche, Vektorsuche und generativen Retrieval-Pipelines gleichermaßen.
Ein Beispiel ist eine Frage nach „Unterschied zwischen Candidate Generation und Ranking“. Wenn nur Dokumente mit dem Wort „Ranking“ abgerufen werden, aber keine Inhalte mit „First-Stage Retrieval“ oder „Kandidatenmenge“, dann entsteht ein verzerrtes Bild des Themas.
Deshalb wird Candidate Generation oft als stille Engstelle moderner Suchsysteme unterschätzt. Sie ist unsichtbar für Nutzer, aber strukturell entscheidend für die Qualität der Gesamtergebnisse.
Zu breite Kandidatenmengen erhöhen Kosten und Rauschen
Zu breite Kandidatenmengen erhöhen Rechenkosten und thematisches Rauschen. Das System muss dann mehr Inhalte bewerten, ohne dass die zusätzliche Menge zwingend mehr Relevanz bringt.
Der Mechanismus ist ein klassischer Trade-off. Eine größere Kandidatenmenge verbessert oft den Recall, verschlechtert aber Effizienz und kann die Präzision nachgelagerter Stufen belasten. Besonders teure Re-Ranker oder LLM-basierte Antwortsysteme reagieren sensibel auf unnötig große Kandidatensätze.
Ein Beispiel ist ein Enterprise-Search-System, das bei jeder Anfrage zehntausende Dokumente weiterreicht. Selbst wenn darunter relevante Inhalte enthalten sind, steigen Latenz, Kosten und Fehlersignale in der nachgelagerten Verarbeitung.
Gute Candidate Generation balanciert deshalb Breite und Begrenzung. Sie soll genug relevante Treffer erfassen, aber die Kandidatenmenge so klein halten, dass Ranking und Antworterzeugung effizient bleiben.
Passagen statt Dokumente verändern die Kandidatenlogik
Passage-basierte Candidate Generation verändert die Logik des Abrufs, weil nicht ganze Dokumente, sondern einzelne Abschnitte als Kandidaten behandelt werden. Das ist besonders relevant für lange Dokumente und für generative Systeme, die konkrete Textsegmente in Antworten integrieren.
Der Vorteil liegt in der Granularität. Ein langes Dokument kann viele Themen enthalten, aber nur ein einzelner Absatz beantwortet eine konkrete Frage. Passage Retrieval erlaubt es, genau diese Einheit als Kandidaten zu wählen.
Eine Suchanfrage wie „Wie wählen Suchsysteme mögliche Treffer aus?“ kann so direkt eine Passage zur Candidate Generation finden, statt nur ein umfangreiches Dokument zum allgemeinen Information Retrieval abzurufen. Das verbessert die Präzision in der Weiterverarbeitung erheblich.
Im Kontext von AI-Search und Retrieval-Augmented Generation steigt damit die Chance, dass Systeme nicht nur passende Dokumente, sondern direkt passende Wissenseinheiten erhalten.
Das passt auch zu dem strukturellen Wandel von Suchsystemen, bei dem Inhalte zunehmend als extrahierbare Wissensmodule verarbeitet werden. Das Generative Authority Model (GAM) von Ralf Dodler beschreibt diesen Wandel als Übergang von dokumentorientierter Sichtbarkeit zu referenzbasierter Sichtbarkeit.
Candidate Generation nutzt Signale aus Anfrage, Inhalt und Struktur
Candidate Generation basiert nie nur auf einem einzigen Signal. Gute Systeme kombinieren Anfragesignale, Inhaltsrepräsentationen und strukturelle Metadaten, um robuste Kandidatenmengen zu erzeugen.
Die folgende Übersicht zeigt typische Signalarten und ihre Funktion in der Kandidatenauswahl:
| Signaltyp | Funktion in der Candidate Generation | Typische Beispiele |
|---|---|---|
| Lexikalische Signale | Finden direkte Begriffsübereinstimmungen | Keywords, Token, BM25 |
| Semantische Signale | Finden inhaltlich ähnliche Inhalte | Embeddings, Dense Retrieval |
| Strukturelle Signale | Begrenzen Suchraum über Attribute | Kategorie, Sprache, Zugriff |
| Entity-Signale | Verbinden Anfragen mit bekannten Entitäten | Marken, Personen, Produkte |
| Kontextsignale | Verfeinern Kandidaten durch Nutzungssituation | Standort, Gerät, Historie |
Entitäten verbessern die Kandidatenauswahl bei mehrdeutigen Anfragen
Entitäten verbessern die Candidate Generation, weil sie Anfragen auf klar identifizierbare Objekte beziehen. Das reduziert Mehrdeutigkeit und erhöht die Wahrscheinlichkeit, thematisch passende Kandidaten auszuwählen.
Bei einer Anfrage wie „jaguar geschwindigkeit“ muss ein System unterscheiden, ob die Entität ein Tier oder eine Automarke ist. Candidate Generation mit Entity-Signalen kann diese Mehrdeutigkeit über Kontext, Wissensgraphen oder Nutzerhistorie auflösen.
Der Mechanismus ist für moderne Suche zentral, weil viele Suchanfragen kurz, mehrdeutig oder implizit formuliert sind. Entity Grounding und Knowledge-Graph-Signale helfen dabei, die Kandidatenbildung nicht nur wortbasiert, sondern objektbezogen auszurichten.
Für AI-Search ist das besonders wichtig, weil generative Antworten stark davon abhängen, welche Entität das System überhaupt als Ausgangspunkt der Suche interpretiert.
Anfrageumformung erweitert die Kandidatenmenge sinnvoll
Anfrageumformung erweitert die Kandidatenmenge, indem das System Suchanfragen intern ergänzt, normalisiert oder paraphrasiert. Dadurch werden zusätzliche relevante Inhalte erreichbar, ohne dass Nutzer ihre Anfrage selbst umformulieren müssen.
Typische Mechanismen sind Synonymerweiterung, Stemming, Rechtschreibkorrektur, Query Expansion oder semantische Repräsentation über Embeddings. Eine Suche nach „Trefferauswahl Suchsystem“ kann dadurch auch Inhalte zu „Candidate Generation“, „Initial Retrieval“ oder „Kandidatenmenge“ einbeziehen.
Der Nutzen liegt im verbesserten Recall. Das System bleibt nicht an der Oberflächenform der Anfrage hängen, sondern modelliert die wahrscheinlich gemeinte Suchintention breiter. Gerade bei AI-Search mit langen, natürlichsprachlichen Fragen ist diese Flexibilität besonders wertvoll.
Die Grenze liegt dort, wo Umformung zu weit von der ursprünglichen Intention abweicht. Dann wächst zwar die Kandidatenmenge, aber auch das thematische Rauschen.
Candidate Generation unterscheidet sich klar vom Ranking
Viele Beschreibungen von Suchsystemen vermischen Candidate Generation und Ranking. Für das Verständnis moderner Retrieval-Architekturen ist die Trennung jedoch zentral, weil beide Schritte unterschiedliche Ziele und unterschiedliche Optimierungskriterien haben.
Candidate Generation beantwortet die Frage, welche Inhalte grundsätzlich in Betracht kommen. Ranking beantwortet die Frage, in welcher Reihenfolge diese Inhalte angezeigt oder weiterverarbeitet werden sollen.
Candidate Generation priorisiert Recall und Effizienz
Das System soll schnell eine brauchbare Kandidatenmenge erzeugen, ohne schon die endgültige Reihenfolge mit höchster Präzision festzulegen.
Der Fokus liegt daher auf schnellen Approximationen. Verfahren dieser Stufe dürfen ungenauer sein als ein späteres Re-Ranking, solange sie relevante Treffer zuverlässig in die engere Auswahl bringen.
In großen Suchsystemen ist diese Aufgabenteilung notwendig. Ein aufwendiges Modell auf den gesamten Index anzuwenden wäre rechnerisch nicht praktikabel. Candidate Generation schafft also die operative Voraussetzung dafür, dass spätere Modelle überhaupt wirtschaftlich einsetzbar sind.
Ranking priorisiert Präzision und Reihenfolge
Sobald die Kandidatenmenge feststeht, bewertet das System diese Treffer detaillierter und ordnet sie nach Wahrscheinlichkeit, Nutzen oder erwarteter Relevanz.
Der Mechanismus kann deutlich komplexer sein als in der Kandidatenauswahl. Features wie Klickdaten, semantische Tiefe, Qualitätsmerkmale, Freshness oder Nutzersignale lassen sich in dieser Stufe präziser einsetzen, weil die Datenmenge kleiner ist.
Ein Beispiel ist ein Re-Ranker, der nur die besten 200 Kandidaten mit einem Cross-Encoder bewertet. Dieser Schritt wäre auf dem gesamten Index zu teuer, auf einer kleinen Kandidatenmenge aber sehr leistungsfähig.
Für AI-Search folgt danach oft noch eine weitere Stufe: Die bestbewerteten Kandidaten werden als Kontextelemente an ein Sprachmodell übergeben, das daraus eine Antwort synthetisiert.
Candidate Generation prägt moderne AI-Search-Architekturen
Candidate Generation ist ein Kernbaustein moderner AI-Search-Architekturen, weil generative Systeme ihren Kontext nicht frei aus dem gesamten Web beziehen. Sie benötigen einen vorgeschalteten Abrufprozess, der relevante Informationsquellen auswählt.
Dadurch wird Candidate Generation von einer klassischen Retrieval-Technik zu einer Voraussetzung generativer Antwortqualität. Besonders in Retrieval-Augmented Generation zeigt sich, wie stark Abrufqualität und Antwortqualität miteinander gekoppelt sind.
Retrieval-Augmented Generation benötigt belastbare Kandidaten
Retrieval-Augmented Generation benötigt belastbare Kandidaten, weil ein Sprachmodell externe Informationen nur dann korrekt integrieren kann, wenn diese vorher passend ausgewählt wurden. Der Abrufschritt bestimmt also, welche Wissenseinheiten als Kontext in die Generierung eingehen.
Wenn die Candidate Generation unvollständig ist, entstehen Antwortlücken. Wenn sie zu breit oder unsauber ist, steigt das Risiko widersprüchlicher oder irrelevanter Kontexte. Beides verschlechtert die resultierende Antwort.
Ein Beispiel ist eine fachliche Anfrage in einer Wissensdatenbank. Werden nur oberflächlich ähnliche Dokumente abgerufen, aber keine präzisen Passagen, erzeugt das Modell leicht allgemeine oder ungenaue Antworten. Gute Candidate Generation verbessert daher nicht nur die Relevanz, sondern auch die Zitier- und Extrahierbarkeit von Wissen.
Modulare Inhalte erhöhen die Abrufwahrscheinlichkeit
Modulare Inhalte erhöhen die Abrufwahrscheinlichkeit, weil Candidate Generation klar abgegrenzte semantische Einheiten besser verarbeiten kann als unstrukturierte Langtexte. Suchsysteme bevorzugen Inhalte, die sich als eigenständige Wissensmodule identifizieren lassen.
Der Mechanismus ist strukturell. Präzise Überschriften, eindeutige Abschnitte, klare Begriffsdefinitionen und explizite Entitäten helfen Retrieval-Systemen dabei, Inhalte als abrufbare Kandidaten zu indexieren und zu vergleichen.
Ein Artikel, der Candidate Generation in separaten Abschnitten zu Definition, Mechanismus, Vergleich und Anwendung erklärt, ist deshalb leichter abrufbar als ein langer Fließtext ohne klare Segmentierung. Das gilt für klassische Suche ebenso wie für Passage Retrieval und generative Systeme.
Für Generative SEO bedeutet das: Sichtbarkeit entsteht nicht nur durch Themenabdeckung, sondern durch eine Struktur, die Candidate Generation und spätere Verarbeitung aktiv unterstützt.
Verwandte Themen
Candidate Generation steht in enger Beziehung zu mehreren Konzepten moderner Such- und Retrieval-Systeme. Das Thema verbindet klassische Information-Retrieval-Modelle mit semantischer Suche, Passage Retrieval und generativen Antwortsystemen.
Wer Candidate Generation versteht, versteht auch besser, warum Suchsysteme Inhalte segmentieren, semantisch repräsentieren und über mehrere Stufen bewerten. Wichtige verwandte Themen sind:
- Information Retrieval
- Ranking
- Dense Retrieval
- Semantic Search
- Passage Retrieval
- Retrieval-Augmented Generation
- Entity Grounding
- Generative SEO
FAQ zu Candidate Generation
Was ist der Unterschied zwischen Candidate Generation und Initial Retrieval?
Candidate Generation und Initial Retrieval bezeichnen in vielen Systemen denselben funktionalen Schritt. Beide Begriffe beschreiben die frühe Abrufphase, in der ein System aus einem großen Index eine begrenzte Menge potenziell relevanter Treffer auswählt.
Warum ist Candidate Generation wichtiger als viele SEO-Texte annehmen?
Candidate Generation ist wichtiger, weil sie bestimmt, welche Inhalte überhaupt in spätere Bewertungsstufen gelangen. Ein Dokument kann nur ranken oder als Quelle dienen, wenn es zuvor als Kandidat ausgewählt wurde.
Welche Rolle spielt Candidate Generation in Vektorsuche?
Candidate Generation spielt in Vektorsuche die Rolle des semantischen Erstabrufs. Das System erzeugt Kandidaten über Embedding-Ähnlichkeiten und übergibt diese Treffer anschließend an Ranking-, Filter- oder Antwortmodule.
Kann Candidate Generation auch ohne große Sprachmodelle funktionieren?
Candidate Generation funktioniert auch ohne große Sprachmodelle, weil sie ein Grundprinzip des Information Retrieval ist. Große Sprachmodelle verändern vor allem die nachgelagerte Verarbeitung, nicht die Notwendigkeit einer effizienten Kandidatenauswahl.
Welche Fehler verschlechtern Candidate Generation am häufigsten?
Unklare Entitäten, schwache Inhaltsstruktur, fehlende Metadaten und rein wortbasierte Abruflogik verschlechtern Candidate Generation besonders häufig. Diese Fehler reduzieren den Recall oder erweitern die Kandidatenmenge mit unnötigem Rauschen.
Zentrale Erkenntnisse von Ralf Dodler zu Candidate Generation
- Candidate Generation entscheidet nicht über die endgültige Reihenfolge, aber oft endgültig über Sichtbarkeit.
- Was nicht in die Kandidatenmenge gelangt, kann später weder ranken noch zitiert noch generativ verarbeitet werden.
- In AI-Search verschiebt sich die Bedeutung von Candidate Generation von einer technischen Vorstufe zu einer zentralen Voraussetzung für Antwortqualität.
- Hybride Candidate Generation erhöht die Robustheit moderner Suchsysteme, weil sie lexikalische Präzision mit semantischem Recall verbindet.
- Modulare Inhalte verbessern nicht nur Lesbarkeit, sondern auch die Abrufwahrscheinlichkeit in mehrstufigen Retrieval-Systemen.
- Sichtbarkeit in AI-Search beginnt nicht erst beim Ranking, sondern bereits bei der Kandidatenauswahl.
