Google lebt von relevanten Suchergebnissen. Denn warum konnte Google überhaupt eine solche Vorherrschaft bei den Suchmaschinen erlangen und warum schafft es Bing (oder eine andere Suchmaschine) nicht, nennenswert mehr Marktanteile zu sichern? Bei Google findet man doch schneller und besser, nach was man eigentlich gesucht hat. Entsprechend investiert Google viel Arbeit, um immer bessere Suchergebnisse zu generieren und jede Manipulation der Suchergebnisse zu stoppen.
Aus Sicht der Suchmaschine ist klassische Suchmaschinenoptimierung (SEO) nämlich genau das: Manipulation. Mit vielfältigen Taktiken wird versucht, Google dazu zu bringen, eine Seite höher in den Suchergebnisse zu platzieren. Denn nur wer ganz oben in den Suchergebnissen steht, bekommt viele Klicks. Entsprechend hoch ist die Motivation, ein wenig (oder auch mehr) nachzuhelfen.
Der Klassiker der Manipulation: Backlinks! Als die Suchmaschine an den Markt ging, waren Links von anderen Websites die wichtigste Grundlage für die Gewichtung der Suchergebnisse von Google. Dies war eine Revolution. Statt auf Meta-Keywords und Häufigkeit von Begriffen zu setzen, war auf einmal relevant, wie häufig eine Seite verlinkt wurde.
Die These dahinter: Eine Seite, die häufig verlinkt wird, liefert offensichtlich wertvolle Information. Der Nachteil: Backlinks sind leicht manipulierbar. Schnell gab es ganze Linkfarmen, Links zur Miete und zum Kauf und viele andere Strategien des Linkaufbaus.
Obwohl Google praktisch von der ersten Stunde an sagte, dass unnatürlicher Linkaufbau “böse” ist, entwickelte sich eine ganze Industrie. Suchmaschinenoptimierung war lange Zeit im Kern Linkaufbau (und ein bisschen grundlegende Optimierung der maschinellen Lesbarkeit der Website).
Google kämpft gegen Manipulation durch SEO
Schon 2003 erschütterte das erste große Google-Update die Branche. Unter dem Namen “Cassandra” veränderte Google die Bewertung von Links und konnte versteckte Links und Text erkennen. Mit den großen bekannten Updates wie “Panda”, “Penguin” und “Hummingbird” änderte Google immer wieder Teile des Algorithmus, um künstliche Links und über-optimierte Inhalte zu erkennen und solche Seiten abzuwerten oder sogar aus den Suchergebnissen auszuschließen. Viele Seiten mit ehemals sehr hohen Rankings wurden abgewertet und mussten viel Arbeit investieren, um sich wieder nach oben zu arbeiten.
- Was ist was bei SEO?
Vieles bei Suchmaschinenoptimierung ist kein Hexenwerk, leider klingt es aber oft danach. Die Masse an Fachbegriffen überfordern Einsteiger und selbst so manchen Webexperten. Wir erklären Ihnen die wichtigsten Begriffe aus dem weiten Feld der Suchmaschinenoptimierung. - Bounce Rate
Der Prozentsatz der Besucher, die eine Website schon nach wenigen Sekunden wieder verlassen, wird mit der Bounce Rate beziffert. Eine hohe Bounce Rate ist ein sicheres Zeichen dafür, dass die Webseite nicht die Erwartungen der Suchenden erfüllt. Die Gründe dafür können schwache Inhalte, unschöne Optik oder auch verwirrende Navigation sein. Bei einer hohen Bounce Rate gibt es also viel Raum für Verbesserungen. - Keyword
Ein Schlüsselwort, das die potenziellen Besucher in der Suchmaschine eingeben ist ein Keyword. Ziel der Suchmaschinenoptimierung ist es sicherzustellen, dass bestimmte Keywords – nämlich diejenigen, zu denen die Site im Ergebnis auftauchen soll - im Inhalt vorkommen. Achtung: wer hier übertreibt, könnte eine böse Überraschung erleben. Suchmaschinen ordnen eine übermäßige Keyword-Anhäufung oft als Spam ein und auch die User werden davon auch genervt. - SERP
Hinter SERP steht die Ergebnisseite der Suchmaschine (Search Engine Result Page). Einfache Faustregel bei der SEO: Je weiter oben man in der SERP beziehungsweise Ergebnisseite steht, desto besser. - Index
Suchmaschinen durchforsten permanent das Web. Dabei entsteht ein Verzeichnis - der so genannte Index, den die Suchmaschine ordnet. Auf eine Suchanfrage des Nutzers wird der Index als Auflistung von Webseiten ausgegeben. - Suchmaschinenalgorithmus
Suchmaschinenalgorithmen ordnen die im Index erfassten Seiten nach Relevanz. Jede Suchmaschine nutzt dabei ein eigenes Geheimrezept, das zudem permanent verändert und weiterentwickelt wird. Die Betreiber wie Google wollen so verhindern, dass der Algorithmus missbraucht wird. Zum Beispiel könnten schmutzige Tricks wie der übermäßige Einsatz von Keywords eingesetzt werden, um das Ranking der eigenen Seite verbessern. - Ranking / Ranking-Faktor
Das Ranking bezeichnet die Position der Website in den Suchergebnissen. Das Ranking wird von vielen Faktoren beeinflusst, zum Beispiel von der Qualität der Inhalte und der Backlinks. Nicht zuletzt wird es auch vom Algorithmus der Suchmaschine beeinflusst. - Organic Search / Organic Ranking
Die organische Ranking ist das Ergebnis, das eine Website ohne den Einsatz von Werbebudget erzielen kann. Bei Suchmaschinen kann durch den Einsatz von Paid Search das Suchergebnis – je nach eingesetzten Mitteln - verbessert werden. Bei der Suchmaschinenoptimierung geht es allerdings darum, das Ranking ohne Sponsoring zu verbessern. - Backlinks
Jede Website enthält Links auf weitere, externe Websites. Backlinks sind hingegen die Links, die von anderen Websites auf die eigene zeigen. Suchmaschinen funktionieren wie persönliche Empfehlungen: Je mehr desto besser. Also ordnen die Suchmaschinen Websites, die öfter von anderen per Link "empfohlen" werden als wertvoller ein. - Deeplinks
Deep Links verweisen direkt auf die Unterseite einer Website, zum Beispiel www.beispielonlineshop.de/elektronik. Wer Deep Links anbietet führt den User direkt zum gesuchten Thema, ohne dass dieser den Umweg über die Homepage nehmen muss und vergrößert die Chance, dass diese Unterseite als Ergebnis bei Google und Co. auftaucht. - Onpage- und Offpage-Optimierung
Bei der Suchmaschinenoptimierung geht es darum, die eigene Website durch inhaltliche, technische und strukturelle Maßnahmen für Suchmaschinen besser zugänglich zu machen. Bei allen Anpassungen und Maßnahmen die auf der eigenen Seite vorgenommen werden, spricht man von Onpage-Optimierung. Bei extern gesteuerten Maßnahmen - zum Beispiel dem Bewerben der Seite auf Social-Media-Kanälen, spricht man von Offpage-Optimierung. - Link Juice
Link Juice - zu deutsch "Verknüpfungsstärke" - beurteilt, wie stark eine Website verlinkt ist und gilt als eine Art Geheimrezept, die Konkurrenz bei Google im Ranking zu schlagen. Konkurrieren zwei Websites zum gleichen Thema, spielt die Anzahl und Qualität der Backlinks eine große Rolle für das Ranking. Einfach ausgedrückt: Wer im Web gut vernetzt ist und oft per Link empfohlen wird, hat mehr Link Juice und landet folglich höher im Ranking. - Link Bait / Linkbuilding
Als Link Bait bezeichnet man einen Webinhalt, der speziell darauf abzielt Traffic, Backlinks oder Resonanz zu erzielen. Ein Link Bait ist ein Mittel zum Linkbuilding. Dabei geht es darum, die Anzahl und Qualität der Backlinks zu erhöhen. - Content
Gute Inhalte sind im Grunde die wichtigste SEO-Maßnahme. Ohne interessante Inhalte auf der Website gibt es kaum Aussicht auf mehr Traffic und Backlinks, die letztendlich das Ranking bei den Suchmaschinen verbessern. Google legt besonderen Wert auf einzigartige Inhalte (Unique Content) und blendet doppelt oder mehrfach vorhandene Inhalte aus. - Black Hat SEO vs. White Hat SEO
Hier geht es um das klassische Duell Gut gegen Böse: Die dunkle Seite - Black Hat SEO - schreckt auch nicht vor schmutzigen Tricks zurück, um schnell eine Steigerung der Website-Popularität zu erreichen. Dabei wird bewusst die Verletzung der Google-Spielregeln in Kauf genommen, zum Beispiel durch den Einsatz von Spam oder Linkfarmen. White Hat SEO kämpft hingegen nur im Rahmen der Richtlinien und setzt für mehr Reichweite zum Beispiel auf hochqualitative Inhalte.
Paradox dabei: Agenturen, die zuerst für den Aufbau dieser Links bezahlt worden waren, machten auf einmal Angebote zum Linkabbau. Hunderte Blogger, die einmal gut dafür bezahlt worden waren, in einem Blogbeitrag die Seite eines Kunden zu verlinken, wurden nun gebeten (und manchmal auch erneut dafür bezahlt), diese Links wieder zu entfernen. Alles nur, damit das Linkprofil wieder “sauber” wurde und man als geläuterter Sünder um Neubewertung bei Google bitten konnte.
Dabei war schon immer klar, was Google möchte: Seiten, die dem Besucher gefallen. Die erste Unternehmensregel von Google ist seit Beginn: “Der Nutzer steht an erster Stelle, alles Weitere folgt von selbst”. Künstliche Links und für die Suchmaschine optimierte Texte stellen mit Sicherheit nicht den Besucher in den Mittelpunkt - und sind entsprechend nicht der richtige Weg, um langfristig bei Google erfolgreich zu sein.
Aber egal, ob man den kurzfristigen oder den langfristigen Erfolg bei Google sucht: User-Signals sind für Google immer einfacher messbar und werden immer wichtiger für die Darstellung der Suchergebnisse.
Denn bei genauerer Betrachtung ist Google viel mehr als eine Suchmaschine. Googles “Chrome” ist einer der meistgenutzten Webbrowser. Google Analytics ist eine der meistgenutzten Webanalyse-Lösungen. Android ist eines der meistgenutzten Betriebssysteme für Smartphones. All diese Programme und Geräte sammeln Daten und senden viele Informationen an Google.
Google weiß also ganz genau, auf welchen Websites die Besucher länger bleiben (weil sie die gesuchten Informationen oder Produkte finden) und bei welchen sie schnell wieder gehen. Alle Studien zu den Ranking-Faktoren bei Google zeigen entsprechend, dass User-Signals immer wichtiger werden. Dabei stechen vier Signale besonders heraus:
Click-Through-Rate
Back-to-SERP-Rate
Bounce-Rate
Nutzungsdauer
User-Signals im Detail
User-Signals sind nicht so einfach zu manipulieren wie Links oder Text. Es reicht nicht, ein paar Seiten im WWW zu verändern - man muss wirklich das Besucherverhalten beeinflussen. Zudem ist es sehr schwer, Google ein anderes Besucherverhalten vorzutäuschen: Google würde beispielsweise automatisierte Seitenbesuche sofort erkennen, die Besucher mit geringer Bounce-Rate und hoher Nutzungsdauer vortäuschen sollen.
Click-Through-Rate
Wohl am meisten Einfluss hat ein User-Signal, was noch direkt auf der Ergebnisseite von Google ausgesendet wird: der Klick auf das eigentliche Suchergebnis (“Click-Through-Rate”). Suchergebnisse, die häufig geklickt werden, werden weiter oben angezeigt. Entsprechend muss man sich große Gedanken dazu machen, was man Google an Informationen für die Überschrift und den Beschreibungstext liefert, damit dieser geklickt wird. Die klassische Methode, hier die Suchbegriffe einzubauen, bei denen man gefunden werden will, ist schon lange nicht mehr der Königsweg.
Stattdessen muss analysiert werden, was die Besucher wirklich interessiert und genau dies muss im sogenannten “Snippet” stehen. Da hier viel manipuliert wurde, sinkt der Einfluss, den man selbst auf die Gestaltung des Snippets hat. Immer häufiger generiert Google das Snippet selbst und ignoriert Vorgaben.
Back-to-SERP-Rate
Eng damit verbunden ist das User-Signal der “Rücksprung-Rate” (“Back-to-SERP-Rate”). Unter einem Rücksprung versteht man, wenn ein Benutzer auf ein Suchergebnis klickt und sehr schnell wieder auf den “Zurück”-Knopf seines Browsers drückt, um wieder zu den Suchergebnissen (Search Engine Result Page) zurückzukommen.
Ganz klar: Wenn Besucher wieder zu den Suchergebnissen zurück wollen, haben sie auf der Seite nicht das gefunden, was sie eigentlich gesucht habe. Die Seite sollte also weiter unten in den Suchergebnissen angezeigt werden. Rücksprünge gilt es also in jedem Fall zu verhindern, da sie so etwas wie der “Worst Case” für das Ergebnis einer Google-Suche sind.