Author Image
Sebastian Denzin
Datum Februar 15, 2016

Technisches SEO für Ihre Webseite

Banner

technische suchmaschinenoptimierung

Die Technik macht´s: Technisches SEO unter der Lupe

Content, Content, Content…natürlich steigt der Stellenwert des Contents immer mehr, jedoch kann auch der beste Content nur schwer ranken, wenn die Technik nicht die beste Grundlage bildet. Aus diesem Grund geben wir Ihnen in diesem Blogbeitrag einen kleinen Einblick in die Möglichkeiten, die uns das technische SEO bietet. Auf geht´s!

Jetzt unser 190 Seiten SEO Buch herunterladen

  • Hands-On Tipps für Ihr SEO
  • Kostenlos & unverbindlich
  • Jetzt durchstarten!

Jetzt herunterladen [kostenlos]

Von robots.txt, sitemap und dem Canonical Tag

Gerade Einsteiger im Bereich der Suchmaschinenoptimierung sind bei der Vielzahl der Begriffe, die im Rahmen der technischen Suchmaschinenoptimierung fallen, schnell überfordert. Der Dschungel an Begrifflichkeiten sorgt dafür, dass sich viele Webseitenbetreiber nicht gerne mit dem Thema der technischen Suchmaschinenoptimierung beschäftigen. So zum Beispiel auch die robots.txt. Die Textdatei ist ein wesentlicher Bestandteil der Webseite und steuert die Crawler gezielt über die Webseite. So lassen sich über die robots.txt gezielt Webseiten vom Crawling ausschließen und sich somit die Indexierung der Seiten steuern.

Ein häufiger Fehler auf vielen Webseiten ist die sture Nicht-Verwendung der robots.txt auf Webseiten. Damit einhergehend ist die Verschwendung von Crawling-Budget, welches jeder Webseite zusteht. Jeder Webseite steht ein gewissen Budget an Seiten zu, die von den robots der Suchmaschine auf Ranking-Faktoren überprüft werden. Dieses Budget ist en So sollten die Crawler im Idealfall nur die Webseiten versuchen zu indexieren, die einen greifbaren Mehrwert für den Webseitenbesucher haben. Verfügt die Webseite zum Beispiel über Seiten mit doppelten Inhalten, so sollte man die doppelten Inhalte ausweisen, damit auf diesen Seiten kein Crawling-Budget verschwendet wird.

Auch die Sitemap ist ein wesentlicher Orientierungspunkt für Suchmaschinen-Crawler. Die Sitemap gibt den Crawlern einen Hinweis, welche Unterseiten für die Aufnahme in den Index gewünscht sind. Sitemaps sollten ständig aktuell gehalten werden und eine gute Struktur aufweisen. So steht den Crawlern bei der Indexierung nichts mehr im Weg.


Die Problematik des Duplicate Contents

Doppelte Inhalte gilt es auf seinem Webseitenauftritt zu vermeiden, da diese dem Ranking der Seite nachhaltig schaden können. Doch allein aus technischen Gesichtspunkten gibt es jede Menge Möglichkeiten wie Duplicate Content unbewusst entstehen kann.

Häufigstes Problem ist, wenn die Webseite unter HTTPS und HTTP aufrufbar ist. Dies gilt es mit einer 301 Weiterleitung oder aber auch unter der Verwendung der Canonical Tags zu vermeiden und der Suchmaschine den Hinweis geben, dass die HTTPS Version indexiert werden sollte.

Ebenso problematisch ist es, wenn die Webseite sowohl unter www.musterseite.de als auch musterseite.de abrufbar ist. Auch an dieser Stelle erzeugt man unbeabsichtigt jede Menge duplicate Content, welchen es mit Hilfe von Anpassungen in der .htaccess zu vermeiden gilt.

Gerade in Onlineshops ist Duplicate Content eine riesige Baustelle: Hier verwenden sehr viele Onlineshops die gleichen Beschreibungstexte wie die Konkurrenz, was zu massenhaft Duplicate Content führt. Sollte sich eine eigene Contentproduktion nicht rechnen, so sollte man von solchen Seiten mittels des Canonical Tags auf zu indexierende Seiten weiterverweisen, wie zum Beispiel optimierte Kategorieseiten.

Technisches SEO und Laaaaaadezeiten

Gerade im Hinblick auf die Webseiten-Performance gibt es viele Möglichkeiten die eigene Webseite schneller zu machen. So ist es zum Beispiel zu empfehlen Bilddateien zu komprimieren und somit die Ladezeiten zu verkürzen. Zusätzlich empfiehlt es sich das Browser-Caching zu aktivieren, um Ladezeiten deutlich kürzer zu halten.

Ebenso ist eine Komprimierung der CSS-Dateien und der Javascript-Dateien unabdingbar.

Neben den bekannten Optimierungsmaßnahmen wie die Anpassung der Meta Daten, die Optimierung sämtlicher Onpage Faktoren und dem Contentmarketing, sollte man immer einen Blick haben für die technischen Gesichtspunkte der Suchmaschinenoptimierung. Der gezielte Umgang mit Crawling- und Indexierungsbudget in Kombination mit einem nachhaltigen und nutzenstiftenden Contentmarketing bringen Ihre Webseite langfristig auf die Überholspur. Gerne helfen wir Ihnen dabei.

Hast du Fragen?

Als Full-Service Online-Marketing-Agentur unterstützen wir Dich gerne.

Das könnte Dich auch interessieren:

Platzhalter

Amazon Maßnahmenplan

Amazon Maßnahmenplan: Dein Guide zur Konto-Rettung Heute widmen wir uns einem Thema, das bei den meisten Amazon-Händlern für Schrecken sorgt und v...

Jetzt lesen
Blogbeitrag

Das Ende des JTL-Connectors für Shopware 5: Was nun?

Die Einstellung des Connectors für JTL Wawi und Shopware 5 zum 31.07.2024 zwingt Shopbetreiber dazu, sich entweder für eine Migration auf Shopwar...

Jetzt lesen
Platzhalter

Server-Side Tracking: Entwirrung des Geheimnisses

Inhaltsverzeichnis Was ist Server-Side Tracking? Warum Server-Side Tracking? Nachteile Wie funktioniert es? Fazit Bist du auch ver...

Jetzt lesen
Platzhalter

Facebook Pixel Verstehen: Einfache Implementierung mit Google Tag Manager

Inhaltsverzeichnis Was ist Facebook Pixel? Wie funktioniert Facebook Pixel? Facebook Pixel über GTM implementieren Fazit Möchtest d...

Jetzt lesen