Offen gestanden bewerte ich Siegel und Zertifikate im SEO-Bereich kritisch, weil viele Anbieter meiner Meinung nach intransparente und für kleine Agenturen benachteiligende Kriterien nutzen und vor allem Siegel für kleine SEO Agenturen und Freischaffende unheimlich teuer sind. Aber es gibt auch Ausnahmen…
Bei einem Relaunch oder der Konzeption einer Website wird man früher oder später mit dem Thema Menüstruktur und Verlinkung konfrontiert. Wie soll die Navigation vom Template aufgebaut werden, ein modernes Mega Menü oder klassisches Flyout-Menü? Dieser Beitrag stellt die Vor- und Nachteile beider Methoden vor. Er weist auf die Herausforderungen von einem Mega Dropdown Menü aus SEO-Sicht hin.
Sind Inhalte im Web durch mehrere URLs aufrufbar, kann Duplicate Content entstehen. Dadurch könnten Suchmaschinen die URL-Version indexieren, die der Webmaster nicht bevorzugt. Durch Canonical Tags kann man das vermeiden. Duplicate Content entsteht auch, wenn Seiten und PDF-Dateien die selben Inhalte besitzen und indexiert werden.
Die Searchmetrics Suite bietet mächtige Tools für Analysen, Empfehlungen und Prognosen zu Markt & Wettbewerbern. Eines der wichtigsten OnPage-Hebel im SEO ist die Optimierung vom internen Linkprofil einer Website. In diesem Blog-Beitrag stelle ich das umfangreiche Link Optimization Toolkit der Searchmetrics Suite vor.
Wie umgehen mit ausverkauften Artikeln im Online Shop? Diese Frage wird mir oft bei meinen SEO Trainings gestellt. Gute Frage. Hier findest Du die richtige SEO-Strategie für nicht vorrätige Artikel im Online Shop.
Die SISTRIX Toolbox zählt zu den beliebtesten SEO Tools in Deutschland. Das Bonner Unternehmen von Johannes Beus bietet Online-Fachkräften, insbesondere SEO-Spezialisten, aber auch Website-Betreibern eine tolle Werkzeugkiste, die zu Recht hohe Maßstäbe in den Bereichen Research, Controlling und Optimization setzt. Heute zählt die SISTRIX Toolbox als das Schweizer Taschenmesser der SEO-Branche.
Technisches SEO zählt zu den Basics für klickstarke Google-Rankings. Eine elementare Maßnahme ist die Crawlability-Optimierung mittels robots.txt-Datei. In diesem Beitrag erfährst Du alles Wissenswerte zur robots.txt-Datei: Praxisbeispiele erklären, wie Du die Crawlability Deiner Website optimierst und welche Anweisungen dafür erforderlich sind. Es sind keine Programmierkenntnisse erforderlich.
Die Google Search Console bietet eine bequeme Funktion, um eine URL von Google abrufen und rendern zu lassen. Gleichzeitig kann man die URL zur Indexierung bei Google anmelden. Durch die Rendern-Funktion findet man heraus, ob wichtige Ressourcen blockiert werden, die für den Seitenaufbau der Website erforderlich sind, wie: JavaScripte, CSS-Dateien, Bilder, etc)
Wenn Website-Inhalte gelöscht oder verschoben werden, sollte eine Weiterleitung (Redirect) zur alternativen bzw. neuen Adresse (URL) erstellt werden. Besucher werden automatisch auf der richtige Seite geleitet. Suchmaschinen können so alle Ranking-Signale auf die neue Adresse übertragen. Dieser Beitrag erklärt, wann eine Weiterleitung erstellt werden sollte, welche HTTP-Statuscodes in der SEO wichtig sind und wie man einen 301/302 Redirect mit htaccess erstellt.