Der Hinweis von Matt Cutts ist klar und unmissverständlich. Eine der größten Fehlerquellen für eine schlechte Platzierung von Webseiten, so der "Head of Webspam", liegt nach wie vor darin, dass Webseiten nicht richtig gecrawlt – also von Suchrobotern durchsucht - werden können. Kann Googles Webcrawler „Googlebot“ nicht auf eine Webseite und deren Inhalte zugreifen, so wird die Seite von Google nicht richtig dargestellt oder im schlimmsten Fall bei Suchanfragen ignoriert. Die Folge: das eigene Unternehmen oder dessen Produkte und Dienstleistungen werden von Interessenten womöglich nicht gefunden.
Zu Beginn einer SEO-Ist-Analyse sollte daher immer geprüft werden, ob die eigene Webseite bereits im Index der Suchmaschine enthalten ist. Ein guter Weg dies zu prüfen, ist die Verwendung des site:-Parameters. Auf einfache Weise lässt sich so ein Überblick über die aktuelle Indexierung einer Webseite gewinnen. Dies gilt im Übrigen nicht nur für die eigene Webseite, sondern ebenfalls für die von Mitbewerbern und Konkurrenten.
Bei Bedarf kann das site:-Parameter auch für die Kontrolle einzelner Seitenbereiche herangezogen werden oder für eine Analyse der Bilder und Grafiken, die eine Suchmaschine auf einer Website gefunden und in den Index gespeichert hat. Hierfür muss einfach die komplette Adresse der Webseite kopiert und zusammen mit dem site:-Parameter in den Google-Suchschlitz eingegeben werden. Die site:-Abfrage funktioniert nach dem gleichen Prinzip auch bei den Suchmaschinen Bing und Yahoo!.
Beispiel Startseite:
site:www.computerwoche.de
Beispiel Google Bilder-Suche
site:computerwoche.de inurl:computerwoche.de
Der zusätzliche Operator inurl: bewirkt im oben genannten Beispiel, dass nur Bilder angezeigt werden, die auf tecchannel.de eingebunden sind und auch von tecchannel.de ausgeliefert werden. Ohne diesen Operator werden auch Bilder angezeigt, die auf einer Domain eingebunden sind, jedoch nicht von dieser Domain ausgeliefert werden.
Beispiel für einen Seitenbereich
site:www.computerwoche.de/software/
Führt diese kurze Ist-Analyse zum Ergebnis, dass Startseite oder Unterseiten nicht im Index enthalten sind, sollte im nächsten Schritt überprüft werden, ob es Hindernisse für ein schnelles und einfaches Crawlen der betroffenen Webseite gibt. Technische Hürden für Crawlability und Indexierung sind einer häufigsten Ursachen für eine schlechte Platzierung in Suchmaschinen.