Crawlbudget erschöpft
- Home
- Crawlbudget erschöpft
Crawlbudget erschöpft
Keyword-Fokus: Crawlbudget
Neue Inhalte werden nicht indexiert, Änderungen brauchen Wochen oder Google crawlt scheinbar die falschen Seiten? In diesem Fall ist oft das Crawlbudget erschöpft – ein technisches SEO-Problem, das besonders bei grösseren oder historisch gewachsenen Websites auftritt.
Crawlbudget ist keine fixe Zahl, sondern das Ergebnis aus Relevanz, technischer Qualität und Index-Hygiene. Diese Seite zeigt dir, warum Crawlbudget verloren geht – und wie du es gezielt zurückholst.
- Was Crawlbudget wirklich bedeutet
- Typische Ursachen für Verschwendung
- Index-Hygiene statt blindem Optimieren
- Priorisierung für bessere Crawl-Effizienz
Kurzantwort (für schnelle Entscheide)
Crawlbudget ist erschöpft, wenn Google zu viele irrelevante oder minderwertige URLs crawlen muss.
Filter, Parameter, Archive, doppelte URLs oder veraltete Inhalte verschwenden Crawl-Ressourcen. Wichtige Seiten werden dadurch seltener gecrawlt, langsamer indexiert oder verlieren an Aktualitätssignalen.
- Crawlbudget wird verdient, nicht zugeteilt
- Index-Hygiene ist der wichtigste Hebel
- Nicht jede URL verdient einen Crawl
Inhaltsverzeichnis
Warum Crawlbudget entscheidend ist
Google crawlt nicht unbegrenzt. Wenn zu viele URLs existieren, entscheidet Google selbst, was wichtig ist – und das ist nicht immer das, was du priorisieren würdest.
Gerade bei Schweizer Websites mit E-Commerce, Filtern, Mehrsprachigkeit oder CMS-Altlasten wird Crawlbudget schnell zum Engpass.
- Neue Inhalte werden verzögert sichtbar
- Updates verlieren Wirkung
- Google priorisiert falsche URL-Typen
Crawlbudget Schnell-Check
- Zehntausende indexierte URLs ohne SEO-Wert
- Viele Parameter-, Filter- oder Such-URLs
- Häufige „Gecrawlt – derzeit nicht indexiert“-Status
- Wichtige Seiten selten im Crawl-Log
Treffen mehrere Punkte zu, wird dein Crawlbudget ineffizient verbraucht.
Entscheidungs-Framework
| URL-Typ | Problem | Priorität | Massnahme |
|---|---|---|---|
| Filter & Parameter | Unendliche URL-Kombinationen | Sehr hoch | Noindex, Canonical oder Blockierung |
| Archive & Tags | Duplicate / Thin Content | Hoch | Noindex & interne Entkopplung |
| Veraltete Seiten | Kein Ranking-Potenzial | Mittel | Löschen, Zusammenführen oder Redirect |
So holst du Crawlbudget zurück
- Alle URL-Typen inventarisieren (nicht nur Seiten)
- Index-Wert jeder URL-Kategorie bewerten
- Irrelevante URLs konsequent entfernen oder entwerten
- Interne Verlinkung auf wichtige Seiten fokussieren
Crawlbudget wird nicht optimiert – es wird freigemacht.
Resultate richtig interpretieren
- Schnellere Indexierung – Google fokussiert wichtige Seiten
- Stabile Rankings – Aktualitätssignale wirken
- Weniger Crawling-Müll – bessere Effizienz
Praxisbeispiel aus der Schweiz
Ein Schweizer E-Commerce-Shop hatte über 120’000 indexierte URLs, von denen ein Grossteil Filter- und Parameterseiten waren.
| KPI | Vorher | Nachher |
|---|---|---|
| Indexierte URLs | 120’000+ | 28’000 |
| Crawl-Frequenz wichtiger Seiten | Niedrig | Deutlich höher |
| Organischer Traffic | Stagnierend | +95 % |
Durch konsequente Index-Hygiene, Filtersteuerung und interne Priorisierung wurde Crawlbudget wieder effektiv nutzbar.
Häufige Fehler
- Crawlbudget nur bei „grossen Sites“ vermuten
- robots.txt statt Index-Logik nutzen
- Alle URLs gleich behandeln
- Interne Verlinkung ignorieren
- Index-Status nicht regelmässig prüfen
Methodik & Vertrauensgrundlage
Die Methodik basiert auf Crawl- & Indexierungs-Audits von Schweizer Websites aus E-Commerce, Publishing und mehrsprachigen Umgebungen.
- Relevanz: Index-Hygiene & URL-Wert
- Technik: Crawl-Logs, GSC, Parametersteuerung
- Trust: Klare Signale für Google
- CTR/UX: Fokus auf performante Seiten
Was Google nicht crawlen muss, kann es besser bewerten.
Tools & nächste Schritte
Autor: Leutrim Miftaraj (SEOBoost.ch)
Aktualisiert: Januar 2026