Screaming Frog SEO Spider Tool zeigt blockierte URLs

Eines der beliebtesten SEO Tools ist das Screaming Frog SEO Spider Tool. Es crawlt gewünschte Website-Inhalte und dokumentiert eine Vielzahl Daten in übersichtlichen Reports. Eine der Stärken des Screaming Frog sind die mächtigen Filter-Möglichkeiten. Version 5.0 bietet eine neue Filterfunktion, mit der durch die robots.txt-Datei blockierte URLs analysiert und übersichtlich dokumentiert werden.

Screaming Frog SEO Spider v5

Blockierte URLs schnell und einfach erfassen

Die neue Funktion zählt für mich zu den hilfreichsten Entwicklungen des Screaming Frog. Besonders bei einem Launch bzw. Relaunch können technische Problemstellungen auftreten, die oft nicht gründlich analysiert werden – wie falsche Headercodes oder eine eingeschränkte Crawlability. Dank der neuen Funktion des Screaming Frog kannst Du blockierte Ressourcen nun bequem bewerten und Fehler abstellen.

Dazu wechselst Du in den Tab „Responsive Codes“, den Du rechts in den „SEO Elements“ findest. Unter dem Menüpunkt „Blocked by Robots.txt“ kannst Du alle blockierten URLs aufrufen. Die tabellarische Darstellung umfasst die Adresse, den Statuscode sowie die Anweisung ( Zeile und Anweisung in der robots.txt), die zur Blockierung führt. Diese Informationen sind enorm hilfreich und aus meiner Sicht eine deutliche Aufwertung des SEO Tools.

Weitere Informationen zum Update 5.0 erfährst Du beim Anbieter.

Screaming Frog kostenlos testen

Die aktuelle Version des Screaming Frog SEO Spider Tool kannst Du für Windows, Mac OS X und Ubuntu hier kostenlos herunterladen. Wenn Du mehr als 500 URLs crawlen und alle Filter-Möglichkeiten uneingeschränkt nutzen möchtest, erhältst Du mit der Jahreslizenz für £99.00 ein hilfreiches Werkzeug, mit dem Du unterschiedliche Kennzahlen identifizieren kannst.

  Jens Fröhlich   Gepostet in: Shortnews, Tools   Schlagwörter: ,  

Kommentare(0)

    Komentar verfassen