Kategorie-Archiv: SEO

Referrer-Spam: Was zur Hölle soll sowas?

Jetzt bewege ich mich schon seit einer Ewigkeit im Netz und höre zum ersten Mal von Referrer-Spam? Scheinbar ja. Dabei handelt es sich um eine extrem abgefahrene Art der Suchmaschinenoptimierung. Man ruft einfach eine Seite mittels Bots auf und liefert als Referrer die Seite mit, welche man pushen möchte. So taucht man in den Statistik-Tools der Seite auf. Nutzt man als Webseitenbetreiber beispielsweise Analytics, so wird Google diese Daten sicherlich auch dazu verwenden, die eigene Seite zu positionieren.

Und auf einmal denkt Google, dass die Seite total viel Traffic hat und rankt diese höher – denke ich zumindest.

Ich bin jedenfalls erstaunt, auf was für Ideen die Leute kommen. Und wenn man nur ein wenig Traffic von den Webseitenadmins bekommt, ist dies ja auch schon viel Wert. Zumindest, wenn man Content anbietet, der auch für diese Zielgruppe interessant ist.

Hier ist ebenfalls ein toller Beitrag zu dem Thema zu finden.

Die eigene Webseite optimieren #10: noindex von unwichtigen Seiten

Manche Seiten braucht man über Google wirklich nicht zu finden. Dazu gehören meistens Kategorieübersichten, Zusammenfassungen, Über Mich-Seiten und nicht zuletzt das Impressum. Um den Suchmaschinen mitzuteilen welche Seiten ihr nicht auf dem Index sehen wollt gibt es das meta-Tag „robots“ – ein kleines Wort mit großer Wirkung. In diesem gibt man den Wert „noindex“ an.

Auf meiner Website habe ich nun auch endlich den ganzen uninteressanten Inhalt vom Index entfernt. Zumindest für die Zukunft – immerhin muss Google erstmal mitbekommen, dass sich etwas geändert hat.

Das zweite Attribut ist follow. Setzt man dieses, folgt die Suchmaschine keinem Link mehr von dieser Seite aus. Ich habe allerdings keinen konkreten Anwendungsfall für mich gefunden.

Die eigene Webseite optimieren #9: Duplicate Content vermeiden

Wie ich schon länger wusste, wird doppelter Content bei Google abgestraft. Das heißt: Angenommen man besitzt die Domains schoene-fotos.de und schoene-fotos.com, dann dürfen diese Domains nicht auf den selben Inhalt zeigen. Im Idealfall würde man eine Weiterleitung auf die jeweils andere Domain einrichten (HTTP-Code 301 – Moved Permanently).

Nun waren aber meine Seiten seit Jahren unter zwei Varianten online: www.klein0r.de und klein0r.de

Selbst dieser kleine Unterschied wird von Google scheinbar schon abgestraft. Da ich aber seit Jahren die Variante ohne www bevorzuge, sollten die meisten Backlinks auch auf diese Adresse zeigen. Die www-Variante habe ich natürlich nun nicht geblockt, sondern leite diese an die non-www-Variante weiter.

Per .htaccess sieht das folgendermaßen aus:

Die eigene Webseite optimieren #8: Backlinkaufbau

Heute möchte ich ein paar Worte zu Backlinkstrategien verlieren. Backlinks sind ein essentieller Bestandteil bei der Offpage-Optimierung und stellt sicher eine der wichtigsten Säulen im Bereich Suchmaschinenoptimierung dar.

In einem vorigen Beitrag habe ich ja bereits schon kurz Webverzechnisse angerissen. Heute habe ich mir vorgenommen, die Seite in mehr Kataloge einzutragen. Hier einige Beispiele:

Tipp: Um Spam vorzubeugen habe ich mir für die Anmeldung bei diesen Diensten eine neue E-Mail-Adresse eingerichtet. Die Adresse muss existieren, andernfalls kann man die Einträge nicht per Link bestätigen.

Als nächstes ist es sinnvoll, Kommentare bei hoch gerankten Webseiten zu erstellen. Das heißt, man sucht nach Blogs die einen guten Pagerank haben und bei welchen die URLs in Kommentaren nicht mit nofollow gekennzeichnet sind. Wie man solche URLs findet ist in diesem Artikel gut erklärt. Eine Liste von Webseiten findet man hier. Alternativ gibt es auch einige Suchmaschinen die diese Aufgabe übernehmen.

Weiterhin nutze ich jede Chance meine URL in einem Forum zu platzieren (meistens über die Signatur). Diese URLs werden zwar zu 99% auch mit nofollow gekennzeichnet, aber tragen ebenfalls zum Ranking bei.

Einen richtigen guten Artikel zum Thema Backlink-Aufbau gibt es hier. Diese Seite kann ich generell empfehlen wenn es um Suchmaschinenoptimierung geht. Sehr interessante und umfangreiche Artikel!

Ansonsten kann ich noch einen sehr ausführlichen Artikel von Tino Schade empfehlen. Auf jeden Fall lesen!

Die eigene Webseite optimieren #7: Google Webmaster Tools

Mit den Google Webmaster Tools kann man sehr gut überprüfen ob aktuell noch Fehler auf der Seite vorliegen. Das Problem ist, dass man die HTTP-Codes der Seite optimieren muss um die Auswertung zu verstehen. Wo kein Inhalt mehr ist, sollte auch ein entsprechender Code an Google geliefert werden.

Nun nutze ich aber mod_rewrite um html-adressen zu nutzen. Diese sehen zwar statisch aus, werden aber von dem Apache-Modul mod_rewrite zerlegt und als Parameter an die index.php übergeben. Nun entscheide ich natürlich in der Seitenlogik, ob der Inhalt gefunden wurde oder nicht – im Fehlerfall wurde bisher zwar eine Meldung ausgegeben, aber der HTTP-Code wurde nicht geändert (es wurde weiterhin 200 OK zurückgeliefert). Das habe ich nun geändert um alte URLs vom Index zu werfen. Würde man das nicht tun, kann Google nicht entscheiden welche Seiten es noch gibt und welche nicht.

Google kann das zwar auch anhand der automatisch generierten Sitemap teilweise entscheiden, aber das ist weniger zuverlässig. Mit den HTTP-Codes schließt sich der Kreis.

So zeigen mir die Webmaster-Tools aktuell, dass keine Crawling-Fehler vorliegen (abgesehen von ein paar gewollten Soft-404 Fehlern). Dabei wird zwar 404 zurückgegeben, aber dennoch eine „schöne“ Seite drumherum aufgebaut. Die machen sich natürlich erst seit der Änderung bemerkbar.

Außerdem sehe ich die häufigsten Suchbegriffe und wieviele Nutzer nach einer Impression auf meine Seite gekommen sind. Genauere Infos liefert natürlich Google Analytics oder Piwik.

Die eigene Webseite optimieren #6: Zwischenstand

Vor ein paar Wochen habe ich damit angefangen meine Website zu optimieren. Ziel sind mehr Klicks, mehr Reichweite und besser gefunden zu werden. Technisch habe ich bisher noch nicht so viel gemacht. Meine neuen Titel wurden allerdings schon auf Google übernommen. Der PageRank ist weiterhin unverändert.

Mir ist noch aufgefallen, dass meine Seite nicht valide ist – aktuell gibt es sogar 85 Fehler. Das sollte aber die Suchmaschinen nicht sonderlich beeindrucken. Ein Arbeitskollege hat darüber genaueres geschrieben.

Im Vergleich zu den Ergebnissen vom 23. Oktober hat sich laut Open Site Explorer schon etwas getan. Hier der Vergleich:

Vorher:

  • Domain Authority: 26/100
  • Page Authority: 37/100
  • Linking Root Domains: 39
  • Total Links: 536

Nachher:

  • Domain Authority: 27/100 (+1)
  • Page Authority: 37/100 (+/- 0)
  • Linking Root Domains: 51 (+ 12)
  • Total Links: 1.397 (+ 861)

Woher die Differenz in den letzten Punkten kommt kann ich allerdings nicht beurteilen. Ich habe zwar ein paar Kommentare auf diversen Seiten hinterlassen, aber nicht mehr als sonst. Vom Gefühl würde ich die Differenz auf einen Fehler im Open Site Explorer zurück führen.