Eine Index-basierte Suchmaschine verbraucht bei jedem der zuvor genannten Abläufe Energie. Der exakte Energieverbrauch der Google-Suche ist schwer zu erfassen. In einem Artikel der Sunday Times wurde 2009 von einem Stromverbrauch von 3 Wh pro Suchanfrage gesprochen, während Google nach eigenen Angaben von einem Stromverbrauch von 0,3 Wh ausgeht. Wegen dieser großen Spannbreite und da keine aktuelleren Angaben verfügbar sind, wird im Folgenden durch eine Aufteilung der zuvor genannten Teilbereiche versucht, Rückschlüsse auf einen Gesamtverbrauch zu ziehen.

Wie beschrieben, benötigt eine Suchmaschine ein Verzeichnis verfügbarer Webseiten, das durch die URL-Discovery erstellt wird. Der Stromverbrauch hängt dabei von der Größe des Verzeichnisses, der Häufigkeit der URL-Prüfung sowie der Intensität der Suche nach neuen URLs ab.

Die auf Google indexierten Seiten werden auf zwischen 30 und 60 Milliarden geschätzt. Da jedoch nur zwischen 75% und 95% der bekannten Seiten tatsächlich indexiert werden, kann man davon ausgehen, dass die URL-Liste etwas größer ist. Somit dürfte die Liste verfügbarer Seiten zwischen 40 und 80 Milliarden Einträge beinhalten. Das Verzeichnis wird durchgehend aktualisiert, was durch Crawling und der Analyse von Sitemaps erfolgt.

Um herauszufinden, wie oft Sitemaps von Google aufgerufen werden, wurden die Daten von drei indexierten Websites in der Google Search Console betrachtet. Diese ermöglicht dem Website-Inhaber zu sehen, an welchem Datum die jeweilige Sitemap zuletzt von Google eingelesen wurde. Für diese Untersuchungen standen somit die Daten der Firmenwebsite novus-tec.de, der Projektwebsite green-web-project.de und der Verkaufswebsite vondur.de zur Verfügung. Über einen Zeitraum von 62 Tagen wurde beobachtet, zu welchen Zeitpunkten die eingereichten Sitemaps von Google eingelesen und überprüft wurden. Daraus ergab sich, dass die Sitemaps durchschnittlich 0,2-mal pro Tag aufgerufen werden.

Wenn man davon ausgeht, dass Google die dort enthaltenen URLs sowie die auf dem URL-Server gespeicherten Verweise, für die keine Sitemaps hinterlegt sind, ebenso häufig prüft, lässt sich daraus schließen, dass jede bekannte URL somit 0,2-mal pro Tag abgerufen wird.

Unter der Berücksichtigung, dass sämtliche Einträge des URL-Servers durchschnittlich 0,2-mal pro Tag geprüft werden sollen, muss Google täglich zwischen 8 Milliarden und 16 Milliarden URLs abrufen. Zu Beginn konnten Googles Crawler jeweils ungefähr 300 laufende Verbindungen halten und so schätzungsweise 25 Websites pro Sekunde verarbeiten. Heutzutage schafft ein Single-Core-Server ca. 250 laufende Verbindungen zu halten. Da auch je nach Serverbauart unterschiedlich viele Prozessoren verbaut werden können, ist es sinnvoll, den Stromverbrauch pro Prozessor-Kern (engl.: core) zu berechnen.

Geht man von einem gleichen Verhältnis der geprüften Websites pro Sekunde und den laufenden Verbindungen aus, kann ein Kern mit 250 laufenden Verbindungen schätzungsweise 21 Websites pro Sekunde verarbeiten.

Ein Kern könnte somit 1,8 Millionen URLs prüfen. Damit Google täglich 8 Milliarden URLs verarbeiten kann, werden 4410 Kerne benötigt, die ganztägig laufen und URL-Discovery betreiben. Bei 16 Milliarden URLs werden hierbei 8819 Kerne benötigt.

Beim Energieverbrauch eines Servers mit einem CPU Socket von 118W und der Annahme, dass ein Server-Prozessor mindestens 8 Kerne besitzt, ergibt sich ein umgerechneter Stromverbrauch von 14,75 W pro Kern (354 Wh pro Tag). Unter Berücksichtigung der Energieeffizienz des Rechenzentrums, der PUE mit dem Faktor 1,10 ergibt sich ein gesamter Energieverbrauch zwischen 1,7 MWh und 3,4 MWh pro Tag.