31. August 2018

Cloaking stammt vom englischen Begriff „cloak“ (dt. Umhang; Mantel). Damit ist eine zweifelhafte Technik gemeint, bei der Suchmaschinen-Bots andere Inhalte präsentiert werden, als menschlichen Nutzern.

Matt Cutts (Goolge) erklärt in dem Video, warum Cloaking gegen die Google Qualitätsrichtlinien verstößt

Matt Cutts von Google erklärt in dem Video, dass Cloaking vorliegt, wenn dem Besucher andere Inhalte angezeigt werden, als dem Googlebot-Crawler. White Hat Cloaking – also sauberes, gutes Cloaking – gibt es nicht. Google straft jede Art von Cloaking ab, denn es ist ein Verstoß gegen Googles Qualitätsrichtlinien.

Cloaking-Techniken enttarnen

Google Search Console

Mit der Rendern-Funktion unter „Abruf wie durch Google“ in der Search Console können URLs analysiert werden. Google bietet einen Vergleich zwischen der visuellen Darstellung der Webseite als Googlebot und als Nutzer. Werden signifikante Differenzen festgestellt, sollte das seriös analysiert werden. Wechselnde Werbeanzeigen führen übrigens nicht zu einem Verstoß der Richtlinien für Webmaster. Beim Cloaking geht es um das große Ganze, also der Absicht Nutzer und/ oder Crawler in die Irre zu führen.

Abruf wie durch Google - Rendern - Cloaking Test // Google Search Console
Abruf wie durch Google – Rendern – Cloaking Test // Google Search Console

Quellcode-Suche

Im Quellcode einer HTML Seite kann nach Funktionen gesucht werden, die nach einem User-agent von Googlebot (wie dem Googlebot-Image für Google Images) oder nach der IP-Adresse vom Googlebot suchen. Das kann ein Hinweis für Cloaking sein.

Geotargeting bzw. IP Delivery

Geotargeting bzw. IP Delivery ist eine Technik, die bei jeder Webserver-Anfrage prüft, aus welchem Land die zugehörige IP-Adresse stammt.

  • Auf Basis der IP-Adresse werden Nutzer beim Geotargeting auf eine festgelegte Ressource automatisch weitergeleitet, zum Beispiel einen englischsprachigen Nutzer in den USA auf die englische US-Sprachversion einer Website zu leiten.
  • Problem: Google crawlt Websites ausgehend von den USA und würde durch IP-Delivery immer an die festgelegte Version weitergeleitet werden. Das kann dazu führen, dass Googlebot Webseiten, die für andere geografische Regionen ausgerichtet sind, nicht finden und verarbeiten kann.

Mobile Version für Smartphones und Tablet-PCs

Google betreibt mehrere User-agents für unterschiedliche Zwecke. Der Googlebot-Mobile crawlt und verarbeitet mobile Websites, die für Smartphones optimiert worden sind. Dabei kann es sich um eine mobile Website oder eine responsive Version einer Desktop-Website (RWD = Responsive Web Design) handeln. Nicht selten versuchen Website-Betreiber die User-agents von Google unnötig zu steuern und verkomplizieren den Crawl-Prozess. Das sollte vermieden werden. Durch das Mobile First Update verarbeitet Google HTML Seiten aus Sicht eines Smartphone-Nutzers.

Hacking durch Cloaking-Techniken

Im Zeitalter der Cyberkriminialität verwenden Hacker oft Cloaking-Techniken, um die Angriffe vor dem Website-Betreiber oder Besucher zu verstecken. Dabei verändern sie den Webseiten-Quellcode so, dass Links (meist aus dem Bereich „Porn Pills and Casino“) in für Nutzer nicht sichtbare Bereiche integriert werden. Suchmaschinen-Bots werden allerdings die nicht gehackte Version der Webseite angeboten. Sie finden diese Links nicht – ein klassischer Fall von Cloaking. Deshalb ist es ratsam, die eigene Website regelmäßig in der Google Search Console zu rendern. Alternativ bietet sich auch folgendes kostenfreies Tool an: www.webconfs.com/cloaking-checker.php.

SEO Glossar