In Zeiten von Web Scraping, Web Harvesting und Web Mashups wächst der Bedarf an effektiven Möglichkeiten der Logfile-Analyse. Schließlich kann man wichtige Erkenntnisse darüber erhalten, welche Bots/Scraper wie oft und wie intensiv auf die Website zugreifen und Daten sammeln. Die Macher des beliebten Screaming Frog SEO Spider haben einen SEO Log File Analyser entwickelt. Damit können Logfiles analysiert werden – in Form von Tabellen und anschaulichen Diagrammen.
Redirect Chains (Weiterleitungsschleifen) können sich nachteilig auf die Crawlability einer Website oder eines Shops auswirken. Besonders wenn Weiterleitungsketten mit mehr als fünf Zwischenseiten bestehen, wird die Erfassung der Zielseite aus Google-Sicht kritisch. In diesem Beitrag zeige ich einen Lösungsweg, um Redirect Chains mit dem Screaming Frog SEO Spider zu analysieren und zu beheben.
Offen gestanden bewerte ich Siegel und Zertifikate im SEO-Bereich kritisch, weil viele Anbieter meiner Meinung nach intransparente und für kleine Agenturen benachteiligende Kriterien nutzen und vor allem Siegel für kleine SEO Agenturen und Freischaffende unheimlich teuer sind. Aber es gibt auch Ausnahmen…
Bei einem Relaunch oder der Konzeption einer Website wird man früher oder später mit dem Thema Menüstruktur und Verlinkung konfrontiert: Wie soll die Hauptnavigation aufgebaut werden – Mega Dropdown Menü oder doch ein klassisches Flyout-Menü? Erfahre jetzt, wann sich ein Mega Menü eignet und wie es aus SEO-Sicht technisch etabliert werden sollte.
Wenn Inhalte über mehrere URLs erreichbar sind, kann Duplicate Content entstehen. Dadurch könnten Suchmaschinen die falsche Version bevorzugen. Durch Canonical Tags kann man das vermeiden. Duplicate Content entsteht auch, wenn HTML Seiten und PDF-Dateien die selben Inhalte besitzen. In diesem Beitrag erkläre ich, wie man Canonical Tags für PDF-Dateien festlegt.
Wie umgehen mit ausverkauften Artikeln im Online Shop? Diese Frage wird mir oft bei meinen SEO Trainings gestellt. Gute Frage. Hier findest Du die richtige SEO-Strategie für nicht vorrätige Artikel im Online Shop.
Die SISTRIX Toolbox zählt zu den beliebtesten SEO Tools in Deutschland. Das Bonner Unternehmen von Johannes Beus bietet Online-Fachkräften, insbesondere SEO-Spezialisten, aber auch Website-Betreibern eine tolle Werkzeugkiste, die zu Recht hohe Maßstäbe in den Bereichen Research, Controlling und Optimization setzt. Heute zählt die SISTRIX Toolbox als das Schweizer Taschenmesser der SEO-Branche.
Eines der beliebtesten SEO Tools ist das Screaming Frog SEO Spider Tool. Es crawlt gewünschte Website-Inhalte und dokumentiert eine Vielzahl Daten in übersichtlichen Reports. Eine der Stärken des Screaming Frog sind die mächtigen Filter-Möglichkeiten. Version 5.0 bietet eine neue Filterfunktion, mit der durch die robots.txt-Datei blockierte URLs analysiert und übersichtlich dokumentiert werden.
Technisches SEO zählt zu den Basics für klickstarke Google-Rankings. Eine elementare Maßnahme ist die Crawlability-Optimierung mittels robots.txt-Datei. In diesem Beitrag erfährst Du alles Wissenswerte zur robots.txt-Datei: Praxisbeispiele erklären, wie Du die Crawlability Deiner Website optimierst und welche Anweisungen dafür erforderlich sind. Es sind keine Programmierkenntnisse erforderlich.