Gegensatz zum Crawlen für das Grundtraining oder Aktualisierungstraining reicht es für den Einbezug aktueller Webinhalte durch das Stellen von Suchanfragen nicht aus, ein einmaliges gebündeltes Crawling durchzuführen. Stattdessen müssen für jede Suchanfrage eine bestimmte Anzahl der gelieferten Ergebnisse gecrawlt und analysiert werden. Dementsprechend richtet sich der Energieverbrauch des Crawlings beim Durchführen der Suchanfragen auf die Menge der zu crawlenden Ergebnisse und die Anzahl der Suchanfragen, die verarbeitet werden müssen.

Wie das Experiment gezeigt hat, ist es nicht bei allen Nutzeranfragen nötig, eine Suchanfrage an eine Index-basierte Suchmaschine durchzuführen. So wurde von Bing Chat nur bei 14 von 20 Nutzeranfragen eine Anfrage an die Bing-Suchmaschine gestellt. Im Hinblick auf die Ergebnisse zeigt sich, dass Fragen, die vollständig mit dem Allgemeinwissen des KI-Modells beantwortet werden können, keine Suchanfrage an ein externes System benötigen. In dem Experiment waren so für 30% der Nutzeranfragen keine Anfragen an eine Index-basierte Suchmaschine erforderlich. Wie groß der Anteil in der Realität bei allen gestellten Nutzeranfragen ist, wird nicht ersichtlich. Jedoch ist davon auszugehen, dass dieser eher etwas kleiner ist. Für die Berechnung des Energieverbrauchs wird daher von einem 15-prozentigen bis 30-prozentigen Anteil von Nutzeranfragen ausgegangen, die keine Suchanfrage an ein externes System benötigen.

Um KI-basierte mit Index-basierten Suchmaschinen zu vergleichen, wird im Folgenden davon ausgegangen, dass an KI-basierte Systeme dieselbe Anzahl von Nutzeranfragen gestellt wird.

Beim vorherigen Experiment wurden bei von Bing Chat gestellten Suchanfragen jeweils zwischen 2 und 4 Seiten für die Beantwortung der Frage analysiert. Bei 3,29 Billionen Suchanfragen im Jahr 2016 und einem Anteil von 70% bis 85%, bei denen eine Anfrage an eine Index-basierte Suchmaschine notwendig ist, ergeben sich zwischen 4,6 Billionen und 11,2 Billionen jährlich gecrawlte Webseiten.

Wie in Abschnitt „Energie-Crawling“ beschrieben, könnte ein Server ca. 864.000 Webseiten pro Tag crawlen. Um 4,6 Billionen Seiten zu crawlen, würde ein einzelner Server 5,32 Millionen Tage benötigen und bei 11,2 Billionen Seiten ca. 12,96 Millionen Tage. In der Realität werden jedoch mehrere Crawler gleichzeitig verwendet. Da dies jedoch keinen Einfluss auf den Gesamtenergieverbrauch hat, kann die Dauer des Crawlings für weitere Berechnungen genutzt werden.

Berechnet man den Energieverbrauch mithilfe der Rechendauer mit einem durchschnittlichen Energieverbrauch von 2880 Wh pro Tag (siehe Abs. Energie-Crawling) und unter Berücksichtigung der PUE mit dem Faktor 1,10, kommt man auf einen minimalen serverseitigen Energieverbrauch von ca. 16,85 GWh und einen maximalen Verbrauch von 41,06 GWh pro Jahr.

Auch wenn beim Crawling ausschließlich das HTML-Dokument geladen wird, verursacht der Datentransfer einen Energieverbrauch von 0,01 Wh pro Seite. Unter Einbezug von 4,6 bis 11,2 Billionen zu crawlenden Webseiten ergibt sich hieraus ein Gesamtenergieverbrauch von 46,01 GWh bis 112,02 GWh durch den Datentransfer.

Rechnet man den serverseitigen Energieverbrauch des Crawlers mit dem extern entstandenen Energieverbrauch zusammen, ergibt sich daraus ein verursachter Gesamtverbrauch von 62,86 GWh bis 153,08 GWh pro Jahr.