Cloaking

Cloaking stammt vom englischen Begriff „cloak“ (dt. Umhang; Mantel). Damit ist eine zweifelhafte Technik gemeint, bei der Suchmaschinen-Crawlern andere Inhalte präsentiert werden, als menschlichen Nutzern.

Matt Cutts (Goolge) erklärt in dem Video, warum Cloaking gegen die Google Qualitätsrichtlinien verstößt

Matt Cutts erklärt in dem Video, dass Cloaking vorliegt, wenn Nutzern andere Inhalte angezeigt werden, als dem Googlebot. „White Hat Cloaking“ – also sauberes, gutes Cloaking – gibt es nicht. Google straft jede Art von Cloaking ab, denn es ist ein Verstoß gegen Googles Qualitätsrichtlinien.

So findest Du heraus, ob Cloaking-Techniken auf Deiner Website besteht:

  • „Abruf wie durch Google“ in der Search Console: Durch die „Rendern-Funktion“ erfährst Du, ob Google Unstimmigkeiten feststellt. Wechselnde Werbeanzeigen führen nicht zu einem Verstoß. Beim Cloaking geht es um das große Ganze, der Absicht Nutzer und/oder Crawler in die Irre zu führen.
  • Im Quellcode einer HTML Seite kannst Du nach Funktionen suchen, die nach einem User-agent von Googlebot (wie dem Googlebot-Image für die Bildersuche) oder nach der IP-Adresse des Googlebots suchen. Das kann ein Indiz für Cloaking sein.

Geotargeting bzw. IP-Delivery

Geotargeting bzw. IP-Delivery ist eine Technik, die bei jeder Webserver-Anfrage prüft, aus welchem Land die zugehörige IP-Adresse stammt.

  • Auf Basis der IP-Adresse werden Nutzer beim Geotargeting auf eine andere Ressource automatisch weitergeleitet, z. B. um einen englischsprachigen Nutzer aus den USA auf die englischsprachige Version einer Website zu leiten (z. B. website.info/ -> website.info/en/).
  • Problem: Google crawlt Websites ausgehend von den USA und würde durch IP-Delivery an eine (andere) englischsprachige Website weitergeleitet werden. Das kann dazu führen, dass Googlebot Websites, die für andere geografische Regionen ausgerichtet sind, nicht finden und verarbeiten kann.
  • Fazit: Geotargeting ist kein Problem, solange der Webserver nicht auf den IP-Adressbereich des Googlebot (hier) reagiert.

Mobile Version für Smartphones und Tablet-PCs

Google betreibt mehrere User-agents für unterschiedliche Zwecke. Der Googlebot-Mobile crawlt und verarbeitet mobile Websites, die für Smartphones optimiert worden sind. Dabei kann es sich um eine mobile Website oder eine responsible Version einer Desktop-Website (RWD = Responsive Web Design) handeln. Nicht selten versuchen Website-Betreiber die User-agents von Google unnötig zu steuern und verkomplizieren den Crawl-Prozess.

  • Der Googlebot sollte wie ein Desktop-Nutzer behandelt werden. Eine angepasste Webseite auszuliefern ist laut Google in Ordnung, z. B. die responsive Version für Mobilgeräte (RWD).
  • Fazit: Bahandle den Googlebot wie einen Nutzer ohne Ausnahmen oder spezielle Regeln in Bezug auf die Content-Auslieferung.

Hacking

Im Zeitalter der Cyberkriminialität verwenden Hacker oft Cloaking-Techniken, um die Angriffe vor dem Website-Betreiber oder Besuchern zu „verstecken“. Dabei verändern sie den Webseiten-Quellcode so, dass Links (meist aus dem Bereich „Porn Pills and Casino“) in für Nutzer nicht sichtbare Bereiche integriert werden. Suchmaschinen-Crawlern wird allerdings die nicht gehackte Version der Webseite angeboten. Sie finden diese Links nicht – ein klassischer Fall von Cloaking. Es ist klug die eigene Website regelmäßig in der Google Search Console zu rendern. Alternativ bietet sich folgendes kostenfreies Tool an: www.webconfs.com/cloaking-checker.php.

Zum Glossar