1. September 2018

In der Suchmaschinenoptimierung spricht man bei Webspam von trickreichen Techniken, die dazu dienen, bessere Platzierungen in den Suchergebnissen zu erzielen. Googles Suchalgorithmen, wie Panda und Penguin, analysieren Web-Ressourcen nach Webspam und lösen bei negativen Signalen eine Entwertung aus, wodurch Sichtbarkeit und Traffic sinken können.

Black Hat SEO-Methoden, wie Cloaking, Malware, oder Phishing führen sogar zu einer Manuellen Maßnahme, die einen Ausschluss der Domain in den Suchergebnissen zur Folge haben kann.

Ein Blick in die Vergangenheit

Die ersten Suchmaschinen (Lycos, HotBot, AltaVista, Google) waren sehr einfach programmiert und scannten den HTML Quellcode von Seiten nach Schlüsselbegriffen. Web-Spammer nutzten das aus und notierten viele Suchbegriffe im Keywords Meta Tag oder duplizierten Webseiten und ersetzten nur das Hauptkeyword durch ein Synonym. So entstanden unzählige Webseiten mit dem selben Kerninhalt, der sich nur durch das Hauptkeyword unterschied. Diese Methoden von Keyword-Stuffing waren sehr erfolgreich, so dass die manipulierten Seiten Top-Rankings in den Suchergebnissen generieren und viel Traffic aufbauen konnten.

Schließlich gelang Google ein Meilenstein mit dem PageRank Algorithmus – denn die Webseiten-Qualität wurde nun maßgeblich von der Linkkraft einer Seite ermittelt: Je mehr eingehende Links eine Webseite erhielt, desto wichtiger schien sie zu sein. Doch das war längst nicht das Ende von Linkspam, denn immer mehr Online-Marketer interessierten sich für den Google Algorithmus. Als bekannt wurde, dass Backlinks eine große Bedeutung besitzen, begann das goldene Zeitalter der Linkfarmen, kostenlosen Webverzeichnisse, von Linkkauf und -miete.

Linkspam wurde zunehmend zum Problem für Google. Mit dem Google Webspam-Team, von Matt Cutts geleitet, wurden Lösungen entwickelt, um wieder bessere Suchergebnisse zu bieten. Der Penguin Algorithmus, der am 24.04.2012 erstmals weltweit ausgerollt wurde, konnte das wachsende Problem mit Linkspam immer besser kontrolliert werden. Penguin wurde durch vier Updates und Data Refreshs stetig weiter entwickelt und verbessert. Mit Version 4.0 wurde der Penguin Algorithmus im September 2016 final in den Core-Suchalgorithmus integriert. Seitdem werden auffällige Backlinks automatisiert entwertet.

Das Problem mit Webseiten von minderwertiger Content-Qualität hat Google durch den Panda Algorithmus unter Kontrolle bekommen. Dieser Qualitätsfilter wurde erstmals im Februar 2011 ausgerollt. Die Panda Updates 4.0 und 4.1 hatten wohl den größten Einfluss auf die Rankings in den Google Suchergebnissen und führten auch zu Verlusten von Websites populärer Marken, wie nokia.com und maxi-cosi.de. Beide Updates wurden 2014 ausgerollt. Seiten mit qualitativ-hochwertigen Inhalten die die Such-Intention des Nutzers befriedigen, profitieren vom Panda-Filter und werden in den Suchergebnissen bevorzugt.

Googles Webspam Bericht 2017

Google informiert jährlich darüber, welche Erfolge gegenüber Webspam erreicht worden sind – wie der Webspam Bericht 2017:

  • Weniger als 1 Prozent der Websites enthalten Spam, die über Google Suchergebnisse aufgerufen wurden.
  • Die Anzahl der gehackten Websites in den Suchergebnissen wurde um 80 Prozent reduziert.
  • Google hat die Entfernung unnatürlicher Links durch Algorithmen und manuelle Aktionen verdoppelt.
  • Die Verringerung von Link-Spam ist im Jahresvergleich um fast die Hälfte zurückgegangen.
  • 90.000 Spam Benutzerberichte wurden bearbeitet.
  • 45 Millionen Nachrichten wurden über die Search Console an registrierte Website-Besitzer gesendet. Sechs Millionen dieser Nachrichten beziehen sich auf manuelle Aktionen.
SEO Glossar