Redirect Chains (Weiterleitungsschleifen) können sich nachteilig auf die Crawlability einer Website oder eines Shops auswirken. Besonders wenn Weiterleitungsketten mit mehr als fünf Zwischenseiten bestehen, wird die Erfassung der Zielseite aus Google-Sicht kritisch. In diesem Beitrag zeige ich einen Lösungsweg, um Redirect Chains mit dem Screaming Frog SEO Spider zu analysieren und zu beheben.
Offen gestanden bewerte ich Siegel und Zertifikate im SEO-Bereich kritisch, weil viele Anbieter meiner Meinung nach intransparente und für kleine Agenturen benachteiligende Kriterien nutzen und vor allem Siegel für kleine SEO Agenturen und Freischaffende unheimlich teuer sind. Aber es gibt auch Ausnahmen…
Bei einem Relaunch oder der Konzeption einer Website wird man früher oder später mit dem Thema Menüstruktur und Verlinkung konfrontiert. Wie soll die Navigation vom Template aufgebaut werden, ein modernes Mega Menü oder klassisches Flyout-Menü? Dieser Beitrag stellt die Vor- und Nachteile beider Methoden vor. Er weist auf die Herausforderungen von einem Mega Dropdown Menü aus SEO-Sicht hin.
Sind Inhalte im Web durch mehrere URLs aufrufbar, kann Duplicate Content entstehen. Dadurch könnten Suchmaschinen die URL-Version indexieren, die der Webmaster nicht bevorzugt. Durch Canonical Tags kann man das vermeiden. Duplicate Content entsteht auch, wenn Seiten und PDF-Dateien die selben Inhalte besitzen und indexiert werden.
Die Searchmetrics Suite bietet mächtige Tools für Analysen, Empfehlungen und Prognosen zu Markt & Wettbewerbern. Eines der wichtigsten OnPage-Hebel im SEO ist die Optimierung vom internen Linkprofil einer Website. In diesem Blog-Beitrag stelle ich das umfangreiche Link Optimization Toolkit der Searchmetrics Suite vor.
Wie umgehen mit ausverkauften Artikeln im Online Shop? Diese Frage wird mir oft bei meinen SEO Trainings gestellt. Gute Frage. Hier findest Du die richtige SEO-Strategie für nicht vorrätige Artikel im Online Shop.
Die SISTRIX Toolbox zählt zu den beliebtesten SEO Tools in Deutschland. Das Bonner Unternehmen von Johannes Beus bietet Online-Fachkräften, insbesondere SEO-Spezialisten, aber auch Website-Betreibern eine tolle Werkzeugkiste, die zu Recht hohe Maßstäbe in den Bereichen Research, Controlling und Optimization setzt. Heute zählt die SISTRIX Toolbox als das Schweizer Taschenmesser der SEO-Branche.
Technisches SEO zählt zu den Basics für klickstarke Google-Rankings. Eine elementare Maßnahme ist die Crawlability-Optimierung mittels robots.txt-Datei. In diesem Beitrag erfährst Du alles Wissenswerte zur robots.txt-Datei: Praxisbeispiele erklären, wie Du die Crawlability Deiner Website optimierst und welche Anweisungen dafür erforderlich sind. Es sind keine Programmierkenntnisse erforderlich.
Die Google Search Console bietet eine bequeme Funktion, um eine URL von Google abrufen und rendern zu lassen. Gleichzeitig kann man die URL zur Indexierung bei Google anmelden. Durch die Rendern-Funktion findet man heraus, ob wichtige Ressourcen blockiert werden, die für den Seitenaufbau der Website erforderlich sind, wie: JavaScripte, CSS-Dateien, Bilder, etc)