Wie Suchmaschinen schlechte Links erkennen


Stingy Linking, Expired Domains und Co.

Googles Rankings hängen wesentlich von guten Links ab. Gleichzeitig sind Google – und natürlich auch anderen Suchmaschinen wie Bing – viele Links ein Dorn im Auge. Denn Links von typischen SEO-Blogs, Beiträge aus Foren, gekaufte Links – all das möchte eine Suchmaschine am liebsten gar nicht werten.

Auch wenn natürlich nicht bekannt ist, welche qualitativ schwachen Links Google erkennen und damit entwerten kann: Beim Suchmaschinenbetreiber wird man sich dazu Gedanken machen. Und wenn man darüber nachdenkt, wie algorithmisch bestimmte Links erkannt werden könnten, lässt sich umgekehrt auch schlussfolgern, wie ein Link aussehen sollte, damit er unerkannt durch dieses Raster fallen kann. Alles in diesem Artikel ist allerdings in gewissen Grenzen Spekulation.

Stingy Linking – Weniger ist Mehr!

Zunächst ist es für einen Algorithmus sehr einfach, allgemeine Verzeichnisse oder auch Social-Bookmarking-Dienste zu erkennen. Denn bei diesen Websites ist die ausgehende Verlinkung nicht „stingy“ – neudeutsch für „geizig“. Vielmehr gibt es auf solchen Websites Links in rauen Mengen.

Eine Website wie bellnet.de hat ein paar Tausend Seiten und insgesamt mehr als eine Million ausgehende Links. Wenn eine Website also auf alles und jeden verlinkt, ist das ein klares Indiz dafür, dass es leicht ist, dort einen Link zu bekommen. Ein Link von einer solchen Site ist also nicht als klassisches Votum für die Qualität einer Website zu werten.

Muster im HTML-Code

Viele Linkquellen sind auch einfach im HTML-Code zu erkennen. So gibt es nach wie vor einige Blogs, bei denen man einen Kommentar hinterlassen kann und dann dafür einen Link erhält (siehe Abbildung). Gelegentlich findet man dann auch in schlecht moderierten Blogs Kommentare von Herrn „Fertighaus“ oder Frau „Ratenkredit“.

Typischer Blog-Kommentar erzeugt einen LinkEin typischer Blog-Kommentar, der einen Link erzeugt

Allerdings sind derartige Links auch im Quellcode sehr leicht zu erkennen. Beispielsweise sind bei WordPress Kommentare in der Regel schon an den CSS-Klassen zu erkennen (z.B. „<ol class=“commentlist“>“ oder „<li class=“alt“ id=“comment-NNNN“>“). Ähnliches gilt für viele andere bekannte Mechanismen wie Gästebücher oder Foren-Signaturen.

Stopp-Wörter

Wenn auf einer Seite schon Wörter wie „Linktausch„, „PageRank“ oder „Linkpartner“ auftauchen, könnte da natürlich schon eine Liste dieser Wörter ausreichen, um Links von solchen Seiten zu entwerten.

Stimmigkeit der Verlinkung

Ein Potenzial liegt auch darin, die eingehenden und die ausgehenden Links einer Website zu bewerten. Wenn es z. B. ein Pferde-Blog gibt, das in der Community beliebt ist, wird sich zeigen, dass viele der eingehenden Links dieses Blogs etwas mit Pferden zu tun haben. Gleichzeitig werden natürlich auch die ausgehenden Links einen Bezug zum Pferd haben.

Wenn eine Suchmaschine also die Themen der eingehenden und der ausgehenden Links in Beziehung setzt, könnte sie herausfinden, ob es sich um eine „echte“ Website handelt. Ein Link von einem solchen kohärenten Blog hätte dann also deutlich mehr Wert für eine Pferde-Website als ein Link von einem Blog, das auch auf viele andere Themen verlinkt.

Größe der Website

Ein typisches Muster findet sich oft bei Free-Blogs, also solchen, die man kostenlos z.B. auf wordpress.com eröffnen kann. Nicht selten findet sich dort auf einer Subdomain wie mein-keyword.wordpress.com eine einstellige Anzahl recht minderwertiger Beiträge zum Thema. Die Beiträge verlinken dann auf die Website, um die es eigentlich geht. Schon alleine die typische Größe einer solchen Website macht es Suchmaschinen leicht, derartige Versuche gezielt zu erkennen.

Expired Domains – Aus Alt mach Neu

Auch beliebt sind Expired Domains, also Domains, die früher mal einem anderen Zweck dienten und gut verlinkt waren (z. B. www.rotes-kreuz-in-emsbuettel.de). Wenn diese Website nicht mehr gebraucht und die Domain wieder frei wird, wird sie „gesnappt“, also wieder neu registriert. Auf diese Domain wird dann meist ein Blog geschaltet, auf dem dann Beiträge abgelegt werden.

Für Suchmaschinen ist das natürlich schon schwieriger zu erkennen. Hier gibt es aber verschiedene Angriffspunkte:

1.Der Besitzerwechsel der Domain (schwer zu erkennen, außer mit Blick auf das Impressum)

2.Der Hosting-Wechsel der Domain (meist nicht zu vermeiden)

3.Der inhaltliche Wechsel der Domain (deswegen werden dann dort auch bevorzugt thematisch passende Inhalte platziert)

Aber selbst, wer alles richtig macht, wird in der Regel eine Schwachstelle nicht lösen: Vor dem Besitzerwechsel hat die Website oft viele gute Links bekommen – in der Regel alles organische Links. Nach dem Wechsel bzw. auch in der Zeit, in der die Domain ruht, werden aber meist gar keine Links mehr aufgebaut. Und wenn, dann nicht mehr in der selben Qualität wie vorher. In jedem Fall gibt es hier ein Muster, das mit gewisser Treffsicherheit erkannt werden kann.

Panda-Update

Google hat mit dem Panda-Update gezeigt, dass es zumindest versucht, Websites in ihrer Gesamtqualität zu erkennen. Auch gibt es bei Google.com einen Indikator für den „Reading Level„, also den Wortschatz eines Textes. Die meisten Texte auf Websites, die nur für den Linkaufbau existieren, würden wohl zumindest Verdacht erregen. Denn sie sind eben nicht hochwertig, sondern wurden für kleines Geld bei Text-Agenturen gekauft und weisen dementsprechend einen geringen „Reading Level“ auf.

Typisches Linkverhalten

Durch die gigantische Menge an Daten, die Google zur Verfügung hat, kann der Suchmaschinen-Betreiber relativ einfach ableiten, was normal ist. Ist es etwa normal, dass eine Website immer mit den „richtigen Suchbegriffen“ auf Anbieter von Ratenkrediten, Geschenkideen und Fertighäusern verlinkt? Oder wäre es nicht normal, auch mal eine URL oder die Wörter „hier“ und „diese Website“ zu verlinken?

So erkennt Google schlechte Links auch

Es gibt noch viel mehr Ansätze, auf die sich Google und anderen Suchmaschinen stützen können. Einige davon stammen aus der statistischen Analyse („Was ist normal/typisch?“), einige aus der Graphen-Theorie („Wo gibt es Link-Netzwerke?“). Aber auch das Trainieren von so genannten Klassifikatoren bietet sich an, bei dem ein Algorithmus mit guten und schlechten Beispielen von Links trainiert wird.

Ausblick

Wie gesagt: Es ist nicht bekannt, welche dieser Methoden Google & Co. mit welcher Treffsicherheit anwenden. Aber die Suchmaschinen haben einen Vorteil bei all diesen Fragestellungen. Sie müssen sich ihrer Sache nämlich nicht unbedingt sicher sein.

Wenn eine Suchmaschine sich entscheidet, einen Link zu entwerten, kann das ja durchaus eine Fehleinschätzung sein – die aber nicht auffällt, weil ja nach außen nicht kommuniziert wird, welche Links wie gewertet werden. Im Zweifel kann eine Suchmaschine hier also sehr konservativ ans Werk gehen und grundsätzlich einem Link nicht trauen.

Leider liegt genau hier auch ein klassisches SEO-Problem: Nach außen ist nicht erkennbar, welche Links wie gewertet werden. Wenn man sehen könnte, dass bestimmte Links (z. B. von billigen SEO-Blogs) nicht funktionieren würden, würde es auch deutlich weniger Nachfrage nach bestimmten Maßnahmen geben.

Und leider funktionieren viele der Maßnahmen ja auch immer noch. Es passiert oft, dass man sich fragt, warum bestimmte Websites es mit einem Link-Mix nach vorne in die Suchergebnisse schaffen, bei denen die Links auf den ersten Blick minderwertig aussehen. All das steigert nicht gerade die Nachfrage nach echten, hochwertigen Verlinkungen im Markt.

Die Zukunft

Der Markt für Linkaufbau ist seit Jahren in Bewegung. Wer früher nur in Social-Bookmarking-Verzeichnisse eingetragen hat oder massiv thematisch unpassende Links erzeugt hat, wird heute ganz andere Maßnahmen empfehlen. Wer aber einen Blick auf die oben genannten Faktoren wirft, sollte schon heute darüber nachdenken, dass viele der typischen Linkaufbau-Methoden langfristig auch nicht funktionieren werden.

Die Nachfrage nach „echten“ Links von „echten“ Websites wird wohl signifikant steigen. Davon gibt es aber leider viel zu wenige, um die Nachfrage am Markt befriedigen zu können.

Auch zeigt sich, dass viele „echte“ Websites Maßnahmen treffen, um sich gegen SEOs zu wehren. So haben einige Foren komplett auf Nofollow-Links umgestellt. Einige erlauben auch erst das Veröffentlichen von Links, nachdem man bereits zehn Beiträge geschrieben hat. So wird zumindest verhindert, dass jemand einfach nur einen kurzen Beitrag in einem Forum schreibt und so schnell einen Link erhält.

Für die nahe Zukunft wird es also einige Veränderungen geben. Einige davon könnten sein:

1.Der Linkkauf auf „echten“ Websites wird signifikant zunehmen.

2.Themen wie Linkbait werden noch wichtiger werden, weil mit ihrer Hilfe auch organische, gute Links entstehen können.

3.Unternehmen und SEOs werden beim Linkaufbau stärker zusammenarbeiten müssen, um „echte“ Links zu bekommen.

4.Die Markteintrittsbarrieren werden für neue Unternehmen immer höher werden, da wohl eher bekannte Unternehmen die „echten“ Links bekommen können.

5.Unternehmen, die auf ein Netzwerk zurückgreifen können, sind natürlich klar im Vorteil (z. B. große Medienhäuser, die über eine Vielzahl an gut verlinkten Websites verfügen).

Fazit

Unternehmen, die Linkaufbau betreiben, sollten sich darüber im Klaren sein, dass viele der derzeit aufgebauten Links für Google zu erkennen sind – ob bereits heute oder in der nahen Zukunft spielt da keine große Rolle. Man wird also darüber nachdenken müssen, wie man sich hier zukunftssicher aufstellt und bereits jetzt die Weichen stellt, um zukünftig gute Links zu bekommen.

Previous Sitecore - Flexibles WCMS auf .NET Basis
Next Online-Pressemitteilungen richtig schreiben

1 Comment

  1. […] Wie Suchmaschinen schlechte Links erkennen […]

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

19 + 10 =