Technisches SEO bezeichnet alle Optimierungsmaßnahmen an der technischen Infrastruktur einer Website, die dafür sorgen, dass Suchmaschinen die Seite fehlerfrei crawlen, korrekt indexieren und im Ranking berücksichtigen können.
Rubrik: Online-Marketing & Content · Unterrubrik: SEO · Niveau: Einsteiger Synonyme / Auch bekannt als: Technische Suchmaschinenoptimierung, Technical SEO, technische Website-Optimierung
Was ist Technisches SEO?
Technisches SEO bildet das Fundament jeder SEO-Strategie. Selbst die besten Inhalte und stärksten Backlinks entfalten ihre Wirkung nicht, wenn Google die Website nicht richtig lesen kann. Technisches SEO stellt sicher, dass die technische Infrastruktur – Server, Code, Dateistruktur, Ladezeit – optimal auf die Anforderungen von Suchmaschinen abgestimmt ist.
Für Medienwebsites und Content-Plattformen mit vielen Seiten, großen Bilddateien und dynamischen Inhalten ist technisches SEO besonders relevant. Hier können technische Mängel schnell großen Schaden anrichten.
Erklärung
Core Web Vitals
Core Web Vitals sind Googles offizielle Metriken für die Nutzererfahrung (UX) und seit 2021 direkte Rankingfaktoren. Sie messen, wie schnell und stabil eine Seite lädt und auf Eingaben reagiert. Details dazu im eigenen Eintrag Core Web Vitals.
Mobile-First Index
Seit 2023 indexiert Google alle Websites primär in der mobilen Version (Mobile-First Indexing). Das bedeutet: Google schaut zuerst, wie eine Seite auf einem Smartphone aussieht und lädt – erst danach die Desktop-Version. Konsequenz: Responsive Design ist Pflicht, und mobile Seiten dürfen inhaltlich nicht hinter der Desktop-Version zurückbleiben.
Prüfung mit dem Google Mobile-Friendly Test oder in der Search Console unter „Mobil-Nutzbarkeit".
HTTPS
HTTPS (HyperText Transfer Protocol Secure) verschlüsselt die Verbindung zwischen Browser und Server. Seit 2014 ist HTTPS ein offizieller (wenn auch kleiner) Rankingfaktor. Wichtiger noch: Browser zeigen HTTP-Seiten als „Nicht sicher" an, was Vertrauen und Traffic kostet. SSL/TLS-Zertifikate sind über viele Hoster kostenlos erhältlich (Let's Encrypt).
Structured Data (Schema.org)
Strukturierte Daten sind maschinenlesbare Informationen, die in den HTML-Code einer Seite eingebettet werden. Sie helfen Google, den Inhalt zu verstehen und in Rich Snippets darzustellen – zum Beispiel Sterne-Bewertungen, Rezeptinformationen, Veranstaltungsdaten oder FAQ-Boxen direkt in den Suchergebnissen.
Das verbreitete Format ist JSON-LD (JavaScript Object Notation for Linked Data), das im <head> oder <body> der Seite eingefügt wird. Schema.org stellt das Vokabular bereit.
Beispiel für ein Artikel-Schema: ``json { "@context": "https://schema.org", "@type": "Article", "headline": "SEO für Einsteiger", "author": {"@type": "Person", "name": "Dominik Lazi"}, "datePublished": "2025-01-15" } ``
robots.txt
Die Datei robots.txt liegt im Wurzelverzeichnis einer Website (domain.de/robots.txt) und gibt Crawlern Anweisungen, welche Bereiche sie besuchen dürfen und welche nicht. Wichtig: Disallow in der robots.txt verhindert das Crawlen, aber nicht zwingend die Indexierung einer Seite (dafür braucht man Noindex-Tags).
Typische Nutzung: Admin-Bereiche, Testumgebungen oder duplizierte Seiten vom Crawling ausschließen.
Sitemap XML
Eine XML-Sitemap ist eine Datei, die alle wichtigen URLs einer Website auflistet. Sie hilft Google, alle Seiten zu finden – besonders bei großen oder schlecht verlinkten Websites. Sitemaps können in der Google Search Console eingereicht werden.
WordPress-Plugins wie Yoast SEO oder RankMath erstellen Sitemaps automatisch.
Canonical Tags
Duplicate Content ist eines der häufigsten technischen SEO-Probleme. Wenn dieselben oder sehr ähnliche Inhalte unter mehreren URLs erreichbar sind (z. B. mit und ohne „www", mit und ohne Trailing Slash, oder durch Filterparameter), verteilt Google die Rankingkraft auf mehrere Versionen.
Der Canonical Tag (<link rel="canonical" href="...">) signalisiert Google, welche URL als die „offizielle" Version gilt. Alle anderen Versionen werden als Duplikate behandelt.
Redirect-Ketten vermeiden
Weiterleitungen (Redirects) sind nötig, wenn URLs sich ändern. Ein 301-Redirect leitet dauerhaft um und überträgt Linkautorität. Problematisch werden Redirect-Ketten: A → B → C → D. Jeder Zwischenschritt kostet etwas Linkautorität und verlangsamt die Ladezeit. Best Practice: Immer direkt auf die finale URL weiterleiten.
Crawl Budget
Das Crawl Budget bezeichnet die Anzahl der Seiten, die Googles Crawler innerhalb eines bestimmten Zeitraums auf einer Website besucht. Bei kleinen Websites ist das irrelevant. Bei großen Seiten mit Tausenden URLs (z. B. E-Commerce, Newsportale) kann es vorkommen, dass wichtige Seiten nicht regelmäßig gecrawlt werden.
Maßnahmen zur Crawl-Budget-Optimierung: Duplicate Content vermeiden, unnötige Parameter aus der Indexierung ausschließen (robots.txt / noindex), Sitemap aktuell halten.
Beispiele
- HTTPS-Migration verbessert Ranking: Ein Medienblog wechselt von HTTP zu HTTPS. Nach korrekter Einrichtung aller Weiterleitungen und Aktualisierung der Search Console steigen Vertrauen und Rankings leicht an.
- Schema.org für Artikel-Timestamps: Eine Nachrichtenredaktion implementiert Article-Schema mit
datePublishedunddateModified. Google zeigt Datum und Autor im Rich Snippet an, was die CTR erhöht. - robots.txt-Fehler behebt Rankingverlust: Ein Online-Magazin hatte aus Versehen die gesamte Website per
Disallow: /in der robots.txt gesperrt. Nach Korrektur und Re-Indexierung kehrten die Rankings zurück. - Canonical Tags lösen Duplicate-Content-Problem: Ein Shop mit Produktfiltern (Farbe, Größe) hatte Hunderte fast identische Seiten. Nach Einführung von Canonical Tags auf die Haupt-Produktseite verbesserte sich das Ranking der ursprünglichen Seiten erheblich.
- Crawl-Budget-Optimierung für Newsportal: Ein Newsportal mit 50.000 Artikeln stellte fest, dass alte, kaum besuchte Artikel das Crawl Budget aufbrauchten. Nach dem Ausschließen veralteter Archivseiten wurden aktuelle Artikel schneller gecrawlt und indexiert.
In der Praxis
Ein technisches SEO-Audit sollte regelmäßig durchgeführt werden. Tools:
- Google Search Console: Crawling-Fehler, Indexabdeckung, Core Web Vitals direkt aus Googles Perspektive
- Screaming Frog SEO Spider: Crawlt die gesamte Website, zeigt Statuscodes, Weiterleitungen, Title-Probleme, Canonical-Fehler
- Google PageSpeed Insights: Ladezeit und Core Web Vitals testen
- Schema Markup Validator (schema.org): Strukturierte Daten prüfen
Empfohlene Häufigkeit: Vollständiges technisches Audit vierteljährlich; monatlicher Check der Search Console auf neue Fehler.
Vergleich & Abgrenzung
| Aspekt | Technisches SEO | On-Page-SEO | Off-Page-SEO |
|---|---|---|---|
| Fokus | Infrastruktur, Code | Inhalte, Metadaten | Externe Links |
| Wer setzt es um? | Entwickler + SEO | Redaktion + SEO | Marketing + PR |
| Wirkung | Grundvoraussetzung | Relevanz | Autorität |
| Sichtbar für Nutzer? | Meist nein | Ja | Nein |
Häufige Fragen (FAQ)
Muss ich Entwicklerkenntnisse haben, um technisches SEO umzusetzen? Für grundlegende Maßnahmen wie das Einrichten von HTTPS, das Einreichen einer Sitemap oder das Prüfen der robots.txt braucht man keine tiefen Entwicklerkenntnisse. Die meisten CMS (WordPress, Shopify) bieten Plugins oder eingebaute Funktionen. Für komplexere Aufgaben wie Structured Data, Crawl-Budget-Optimierung oder Servereinstellungen ist technisches Wissen oder die Zusammenarbeit mit Entwicklern empfehlenswert.
Was passiert, wenn ich robots.txt falsch konfiguriere? Eine falsch konfigurierte robots.txt kann dazu führen, dass Google die gesamte Website nicht mehr crawlt und indexiert – mit katastrophalen Folgen für das Ranking. Deshalb sollten Änderungen an robots.txt immer sorgfältig geprüft und in der Search Console validiert werden. Google bietet in der Search Console einen robots.txt-Tester an.
Verwandte Einträge
- SEO-Grundlagen – Überblick: Was ist SEO und wie funktioniert Google?
- Core Web Vitals – LCP, INP und CLS im Detail
- On-Page-SEO – Inhalte und Metadaten optimieren
Weiterführend
- Google Search Central: Technical SEO Documentation (Google, 2024)
- Screaming Frog: SEO Spider User Guide (Screaming Frog, 2024)
- Patel, Neil: Technical SEO: The Complete Guide (NeilPatel.com, 2023)
- Levy, Lily: Crawl Budget Optimization for Large Sites (Ahrefs Blog, 2024)
