SEO

Technisches SEO: Die Grundlagen, die jede Unternehmenswebsite erfüllen muss

Technisches SEO ist die Basis, auf der alles andere aufbaut. Ohne solide technische Grundlage nützen die besten Inhalte wenig — diese Checkliste zeigt, worauf es ankommt.

Niklas Bern Niklas Bern 9 Min. Lesezeit
Zusammenfassung

Technisches SEO stellt sicher, dass Google Deine Website crawlen, indexieren und verstehen kann. Die wichtigsten Grundlagen: saubere Indexierbarkeit, HTTPS, XML-Sitemap, strukturierte Daten, Ladezeiten und eine fehlerfreie robots.txt. Viele technische Probleme bleiben jahrelang unentdeckt und kosten täglich Rankings.

Was technisches SEO überhaupt bedeutet

Technisches SEO Grundlagen — MacBook mit HTML/CSS-Code im Dark-Mode als einzige Lichtquelle
Technisches SEO ist das Fundament. Ohne es nützen die besten Inhalte und stärksten Backlinks wenig — Google muss Deine Website erst crawlen und verstehen können.

On-Page SEO optimiert Inhalte. Off-Page SEO baut Autorität auf. Technisches SEO stellt sicher, dass Deine Website überhaupt in der Lage ist, zu ranken.

Stell Dir einen fantastischen Laden vor: perfekte Produkte, freundliches Personal, faire Preise. Aber die Adresse existiert in Google Maps nicht, das Schild an der Tür ist unleserlich und die Tür lässt sich von außen nicht öffnen. Das ist eine Website mit schlechtem technischen SEO.

In diesem Artikel gehe ich die wichtigsten technischen Grundlagen durch — verständlich, ohne Technikstudium.

Grundlage 1: Indexierbarkeit prüfen

Bevor Google Deine Seiten in den Suchergebnissen anzeigen kann, muss es sie indexieren — also in seine Datenbank aufnehmen. Klingt selbstverständlich, ist aber einer der häufigsten Fehler: Viele Websites haben Seiten, die versehentlich von der Indexierung ausgeschlossen sind.

So prüfst Du es: Gib in Google ein: site:deinewebsite.de — die Ergebnisse zeigen alle indexierten Seiten. Deutlich weniger Ergebnisse als Du Seiten hast? Dann fehlen Seiten in Googles Index.

Häufige Ursachen:

  • noindex-Tag in den Seiteneinstellungen (oft versehentlich bei WordPress aktiviert)
  • Blockierung durch robots.txt
  • Seiten ohne eingehende interne Links (Google findet sie nicht)
  • Dünne Seiten, die Google als nicht indexierungswürdig bewertet

Grundlage 2: HTTPS und Sicherheit

Jede Unternehmenswebsite muss HTTPS verwenden. Punkt. HTTP-Websites zeigen in modernen Browsern eine “Nicht sicher”-Warnung — das vertreibt Besucher, bevor sie überhaupt angefangen haben zu lesen. Dazu ist HTTPS seit 2014 ein offizieller Rankingfaktor.

Was zu prüfen ist:

  • Alle Seiten laden über HTTPS (nicht nur die Startseite)
  • HTTP-URLs werden automatisch auf HTTPS weitergeleitet (301-Weiterleitung)
  • Das SSL-Zertifikat ist gültig und nicht abgelaufen (prüfen mit SSL Labs: ssllabs.com/ssltest)
  • Alle internen Links und Bilder referenzieren HTTPS-URLs (Mixed Content vermeiden)

Grundlage 3: XML-Sitemap

Eine XML-Sitemap ist eine Datei, die Google alle wichtigen Seiten Deiner Website in strukturierter Form auflistet. Besonders wichtig, wenn Deine Website:

  • Viele Seiten hat (100+)
  • Neue Inhalte häufig veröffentlicht (Blog)
  • Seiten hat, die nicht gut intern verlinkt sind

Vorgehen:

  1. Sitemap generieren (WordPress-Plugins wie Yoast SEO oder Rank Math machen das automatisch; bei anderen CMS gibt es entsprechende Plugins)
  2. Sitemap in der Google Search Console einreichen: Google Search Console → Sitemaps → URL eingeben → Absenden
  3. Prüfen, ob Google die Sitemap verarbeitet hat und ob Fehler aufgetreten sind

Deine Sitemap-URL lautet typischerweise: https://deinewebsite.de/sitemap.xml

Grundlage 4: Robots.txt korrekt konfigurieren

Die Datei robots.txt liegt im Hauptverzeichnis Deiner Website und gibt Google-Bots an, welche Bereiche gecrawlt werden dürfen und welche nicht.

Was in robots.txt gesperrt sein sollte:

  • Admin-Bereiche (z.B. /wp-admin/)
  • Duplicate-Content-URLs (z.B. Druckversionen, Sortierungsparameter)
  • Interne Suchseiten

Was NICHT gesperrt sein sollte:

  • Alle wichtigen Leistungs- und Contentseiten
  • CSS- und JavaScript-Dateien (Google braucht diese, um Deine Seiten korrekt zu rendern)

Prüfe Deine robots.txt unter: https://deinewebsite.de/robots.txt

Grundlage 5: Seitengeschwindigkeit und Core Web Vitals

Ladezeit ist ein direkter Rankingfaktor. Die drei Core Web Vitals messen, wie schnell eine Seite lädt, wie stabil das Layout ist und wie schnell auf Nutzerinteraktionen reagiert wird.

Zielwerte:

  • Largest Contentful Paint (LCP): unter 2,5 Sekunden
  • Cumulative Layout Shift (CLS): unter 0,1
  • Interaction to Next Paint (INP): unter 200 Millisekunden

Die häufigsten Ladezeit-Probleme:

  • Unoptimierte Bilder (größtes Optimierungspotenzial, einfach umsetzbar)
  • Kein Browser-Caching (Ressourcen werden bei jedem Besuch neu geladen)
  • Zu viele JavaScript-Dateien, die das Rendering blockieren
  • Langsames Hosting oder Server in den USA statt in Europa
  • Kein Content Delivery Network (CDN) bei globalem oder nationalem Traffic

Diagnose: Google PageSpeed Insights (pagespeed.web.dev) analysiert jede URL kostenlos und zeigt konkrete Verbesserungsvorschläge — priorisiert nach Wirkung.

Grundlage 6: Mobile-First-Optimierung

Seit 2019 indexiert Google primär die mobile Version Deiner Website. Was auf dem Smartphone nicht funktioniert, schadet dem Ranking — auch auf dem Desktop.

Checkliste für mobile Optimierung:

  • Responsive Design (Seite passt sich an alle Bildschirmgrößen an)
  • Schriftgröße mindestens 16px (kein Zoomen nötig)
  • Klickflächen mindestens 44x44 Pixel groß
  • Kein horizontales Scrollen
  • Pop-ups, die den Inhalt auf Mobilgeräten verdecken, vermeiden (Google-Penalty möglich)

Test: Google Search Console → “Mobilfreundlichkeit” → Zeigt Dir spezifische Probleme, die Google erkannt hat.

Grundlage 7: URL-Struktur und Weiterleitungen

Eine saubere URL-Struktur hilft Google, die Hierarchie Deiner Website zu verstehen.

Gute URL-Struktur:

  • Kurz und sprechend: /leistungen/seo statt /page?id=42
  • Primäres Keyword in der URL
  • Keine Sonderzeichen, keine Großbuchstaben
  • Logische Hierarchie: domain.de/kategorie/unterseite

Weiterleitungen sauber halten:

  • 301-Weiterleitungen für dauerhaft umgezogene Seiten
  • Keine Weiterleitungsketten (A → B → C, stattdessen direkt A → C)
  • Keine Redirect-Loops (A → B → A)
  • Kaputte Links (404-Fehler) auf wichtige Seiten beheben

Grundlage 8: Strukturierte Daten (Schema Markup)

Schema Markup ist maschinenlesbarer Code, der Google zusätzliche Informationen über den Inhalt einer Seite gibt. Für Unternehmenswebsites besonders relevant:

  • LocalBusiness: Name, Adresse, Telefon, Öffnungszeiten — stärkt Local SEO
  • FAQ-Schema: Für Frage-Antwort-Sektionen — erhöht die Chance auf Rich Snippets
  • Breadcrumbs: Zeigt Google und Nutzern die Position der Seite in der Website-Hierarchie
  • Organization: Basis-Informationen zum Unternehmen

Schema Markup ist kein direkter Rankingfaktor, erhöht aber die Klickrate durch visuelle Erweiterungen in den Suchergebnissen.

Grundlage 9: Duplicate Content vermeiden

Duplicate Content bedeutet, dass identische oder sehr ähnliche Inhalte unter mehreren URLs erreichbar sind. Das verwirrt Google — und schwächt beide Seiten.

Typische Quellen von Duplicate Content:

  • Website unter www und ohne www erreichbar (ohne Weiterleitung)
  • HTTP und HTTPS als separate Versionen
  • Sortierungs- und Filterfunktionen erzeugen neue URLs mit gleichem Inhalt
  • Druckversionen von Seiten

Lösung: Canonical-Tags setzen (die “offizielle” URL markieren) und alle Duplikate auf die Hauptversion weiterleiten.

Der richtige Einstieg in technisches SEO

Wer noch nie ein technisches SEO-Audit gemacht hat, sollte mit der Google Search Console beginnen. Das Tool zeigt die wichtigsten Probleme kostenlos und priorisiert nach Schweregrad. Für eine vollständige Analyse hilft Screaming Frog SEO Spider (kostenlos bis 500 Seiten).

Die meisten technischen SEO-Probleme lassen sich einmalig beheben und dann mit regelmäßigen Checks im Griff halten. Das Fundament muss nur einmal solide gesetzt werden — danach trägt es alles andere.

Auf unserer SEO-Leistungsseite erfährst Du, wie ein technisches SEO-Audit bei NB Werbeagentur abläuft.


Technisches SEO mit NB Werbeagentur Münster

Du vermutest technische Probleme auf Deiner Website, weißt aber nicht, wo Du suchen sollst? Als SEO-Agentur in Münster führe ich ein vollständiges technisches Audit durch und priorisiere die Maßnahmen nach Impact.

Jetzt SEO-Audit anfragen

Häufig gestellte Fragen

Was ist Crawling und warum ist es wichtig?

Crawling ist der Prozess, bei dem Googles automatisierte Programme (Bots) Deine Website besuchen, um Inhalte zu lesen und zu indexieren. Wenn Google Deine Seiten nicht crawlen kann — z.B. weil sie durch robots.txt blockiert oder hinter Login-Formularen versteckt sind — werden sie nicht indexiert und erscheinen nicht in den Suchergebnissen.

Was ist der Unterschied zwischen HTTP und HTTPS?

HTTPS bedeutet, dass die Verbindung zwischen Browser und Website verschlüsselt ist — erkennbar am Schloss-Symbol in der Adresszeile. Seit 2014 ist HTTPS ein offizieller Google-Rankingfaktor. Seiten ohne HTTPS zeigen Browser-Warnungen ('Nicht sicher'), die das Vertrauen von Besuchern massiv beschädigen. Kostenloses SSL-Zertifikat gibt es über Let's Encrypt.

Was ist eine XML-Sitemap?

Eine XML-Sitemap ist eine Datei, die alle wichtigen Seiten Deiner Website in maschinenlesbarer Form auflistet. Sie hilft Google, alle Seiten zu finden und zu crawlen — besonders wichtig bei großen oder schlecht verlinkten Websites. Die Sitemap wird in der Google Search Console eingereicht und regelmäßig automatisch aktualisiert.

Was sind kanonische URLs und warum brauche ich sie?

Wenn dieselbe Seite über mehrere URLs erreichbar ist (z.B. mit und ohne www, oder mit und ohne abschließendem Schrägstrich), entsteht Duplicate Content. Das kanonische Tag (rel='canonical') sagt Google, welche URL die 'offizielle' Version ist. Ohne Canonicals kann Google die Autorität einer Seite auf mehrere URL-Varianten aufteilen — das schwächt das Ranking.

Wie finde ich technische SEO-Probleme auf meiner Website?

Google Search Console (kostenlos, direkt von Google): zeigt Indexierungsfehler, Crawling-Probleme und Core Web Vitals. Screaming Frog SEO Spider (kostenlos bis 500 URLs): crawlt Deine gesamte Website und zeigt fehlende Titles, kaputte Links, Weiterleitungsprobleme. Google PageSpeed Insights: analysiert Ladezeiten und Core Web Vitals für einzelne Seiten.

Zurück zu allen Artikeln

Newsletter

Marketing-Wissen direkt ins Postfach.

Kein Spam. Praxisnahe Tipps zu Branding, Web und digitalem Marketing — einmal im Monat. Jederzeit abbestellbar.

Cookies & Datenschutz

Wir nutzen Cookies für eine optimale Website-Erfahrung und anonymisierte Analyse (Google Analytics 4). Du kannst Deine Einstellungen jederzeit anpassen. Mehr erfahren