Um mit hilfreichen und relevanten Ergebnissen auf eine Nutzeranfrage antworten zu können, ist es notwendig, die Eingabe des Nutzers richtig zu verstehen. Bei KI-basierten Suchmaschinen ist hierfür kein weiteres System für die Anfrageinterpretation erforderlich, denn das KI-Modell wurde durch das Grundtraining und Finetuning so angepasst, dass es auf Eingaben des Nutzers korrekt antwortet. Dafür muss das KI-Modell die Eingabe nicht verstehen, sondern berechnet die Ausgabe anhand eines statistischen Modells und liefert die wahrscheinlichste Antwort.

Wie eine KI-basierte Suchmaschine Ergebnisse für ihre Antwort findet und in dieser ordnet, hängt davon ab, welches System für die Einspeisung der Inhalte in das KI-Modell genutzt wurde. Wenn das vollständige Training der Inhalte angewandt wurde, kennt das KI-Modell bereits alle nötigen Informationen, um eine Antwort mit Ergebnissen zu liefern. Die Auswahl und Sortierung der genutzten Inhalte sowie der gelieferten Quellen hängt hierbei vom Generierungsprozess der Antwort ab, welcher von außen in der Regel nicht nachvollziehbar ist.

Wird eine Suchanfrage gestellt, um aktuelle Inhalte einzubeziehen, analysiert das KI-Modell die ersten Ergebnisse der Suchanfrage. Auf der Grundlage dieser Ergebnisse erstellt das Modell seine Antwort. Dabei hängen Auswahl und Sortierung der Inhalte von der angefragten Index-basierten Suchmaschine ab, welche die aktuellen Webseiten bereitstellt.

Um eine relevante Antwort generieren zu können, werden die zugrunde liegenden Inhalte genutzt und mithilfe des statistischen Modells des LLM berechnet. Hierbei wird wie im Trainingsprozess das wahrscheinlichste Token auf Grundlage der Eingabe berechnet. Dieses wird an die Eingabe angehängt, um das nächste wahrscheinlichste Token zu generieren. Dieser Prozess wird so lange wiederholt, bis die Antwort vom KI-Modell als vollständig angesehen wird.

Die Token werden durch den Transformer wieder zu verständlichen Wörtern und Sätzen zusammengesetzt. Je nach System wird die Antwort, wie bei Google Bard, erst nach der vollständigen Generierung oder, wie bei Bing Chat und ChatGPT, während des Prozesses geliefert.