Google Bot

Ein Webcrawler von Google, der die Seiten im Web auf den Inhalt prüft und untersucht, ist der Googlebot. Sobald er eine neue Webseite findet, werden die Daten dieser Seite im Daten-Index der Suchmaschine gespeichert. Neue Inhalte, die auf bereits gespeicherte Seiten erstellt werden, haben eine Veränderung des Programms und des bereits bestehenden Eintrags zur Folge. Wie oft die Webseiten von Googlebot gescannt werden, ist abhängig vom Page Rank und der Anzahl der externen Links. Google hat natürlich viele solcher Webcrawler zur Verfügung, die das Netz regelmäßig auf Neuerungen durchforsten. Gewährleistet werden soll damit, dass die Suchmaschine immer auf dem neuesten Stand ist. Außerdem werden bei einem solchen Scann auch die Webseiten gefunden, die versuchen die Suchmaschine zu manipulieren, um ein besseres Ranking zu erhalten.