Warum das Gewicht deiner Webseiten prüfen?
Wenn dein HTML 2 MB überschreitet, schneidet Googlebot es stillschweigend ab. Keine Fehlermeldung in der Search Console, keine Warnung: Der Inhalt am Seitenende verschwindet einfach aus dem Google-Index. Deine internen Links, deine strukturierte FAQ, dein SEO-Text – für die Suchmaschine unsichtbar.
Drei Gründe, das Gewicht deiner Seiten zu prüfen:
- Trunkierung vermeiden → Seiten mit umfangreichem Inline-HTML (SVG, CSS, großes JSON-LD) überschreiten oft das Limit, ohne dass du es merkst
- Crawl Budget optimieren → Leichtere Seiten = mehr von Google gecrawlte Seiten in der verfügbaren Zeit
- Geschwindigkeit verbessern → Leichtes HTML lädt schneller, bessere Core Web Vitals, besseres Ranking
So nutzt du den Page Size Checker in 3 Schritten
Schritt 1: URL der Seite eingeben
Gib die vollständige URL der zu analysierenden Seite in das Feld oben ein. Das Tool akzeptiert jede öffentlich zugängliche URL:
https://www.captaindns.com/de
Teste zuerst deine längsten Seiten: Kategorieseiten, Produktseiten mit vielen Varianten, Blogartikel mit zahlreichen Inline-Bildern.
Schritt 2: User-Agent wählen
Wähle den User-Agent, um den Crawl zu simulieren:
- Googlebot Smartphone (empfohlen): Simuliert den Mobile-First-Crawl, den Google für die primäre Indexierung nutzt
- Googlebot Desktop: Nützlich, um die Desktop-Version zu vergleichen, falls deine Seite unterschiedliches HTML ausliefert
Schritt 3: Ergebnisse ansehen
Der Bericht zeigt:
- Gesamtgewicht: Exakte HTML-Größe in Bytes und in KB/MB
- Fortschrittsbalken: Visuelles Verhältnis zum 2-MB-Limit
- HTTP-Header: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
- HTML-Analyse: Seitenstruktur, Anzahl der Tags, erkannte Elemente
- Trunkierungssimulation: Falls zutreffend, zeigt genau, wo Googlebot abschneiden würde
- Empfehlungen: Konkrete Maßnahmen zur Gewichtsreduzierung
Was ist das 2-MB-Limit von Googlebot?
Google dokumentiert ein Größenlimit für den Crawl: Googlebot kann die ersten 2.097.152 Bytes (2 MB) des HTML-Quellcodes einer Seite herunterladen und indexieren. Darüber hinaus wird der Inhalt abgeschnitten.
Was das konkret bedeutet:
| Situation | SEO-Auswirkung |
|---|---|
| HTML < 2 MB | Seite vollständig indexiert, kein Problem |
| HTML nahe 2 MB | Risiko der Trunkierung bei Elementen am Seitenende |
| HTML > 2 MB | Sichere Trunkierung: Links, FAQ, Inhalte am Seitenende gehen verloren |
Achtung: Dieses Limit gilt für das dekomprimierte HTML. Die gzip/Brotli-Komprimierung ändert nichts daran: Ein 3 MB großes HTML, das komprimiert übertragen wird, wird nach der Dekompression trotzdem bei 2 MB abgeschnitten.
Seiten mit erhöhtem Risiko:
- E-Commerce-Seiten mit Hunderten von Produkten im HTML
- Landing Pages mit Inline-SVG oder umfangreichem eingebettetem CSS
- Seiten mit sehr detaillierten JSON-LD-Daten (z. B. FAQ mit über 50 Fragen)
- Serverseitig generierte Seiten mit viel Inline-JavaScript
Was genau analysiert das Tool?
Größenanalyse
| Element | Beschreibung |
|---|---|
| Rohgröße | Exaktes Gewicht des vom Server zurückgegebenen HTML in Bytes |
| Dekomprimierte Größe | Größe nach gzip/Brotli-Dekodierung (relevant für Googlebot) |
| 2-MB-Verhältnis | Prozentsatz des verbrauchten Googlebot-Limits |
HTTP-Header
| Header | Warum das wichtig ist |
|---|---|
| Content-Type | Bestätigt, dass der Server tatsächlich HTML ausliefert |
| Content-Encoding | Zeigt an, ob Komprimierung aktiv ist (gzip, br) |
| Content-Length | Vom Server deklarierte Größe (kann von der tatsächlichen abweichen) |
| X-Robots-Tag | Erkennt ein mögliches noindex/nofollow auf HTTP-Ebene |
| Cache-Control | Cache-Konfiguration, die die Crawl-Häufigkeit beeinflusst |
HTML-Analyse
| Element | Was das Tool prüft |
|---|---|
| Meta-Tags | Vorhandensein und Inhalt von Title, Description, Robots |
| Struktur | Heading-Hierarchie (H1–H6) |
| Links | Anzahl erkannter interner und externer Links |
Praxisnahe Anwendungsfälle
Fall 1: E-Commerce-Seite mit Tausenden Produkten
Symptom: Deine Kategorieseite listet 500 Produkte im HTML auf. Das Seitenende (Paginierung, FAQ, Links zu Unterkategorien) erscheint nicht in den Google-Ergebnissen.
Diagnose mit dem Tool: Die Seite hat 3,2 MB HTML. Googlebot schneidet bei 2 MB ab und verliert die letzten 200 Produkte, die FAQ und alle Navigationslinks im Footer.
Maßnahme: Auf Paginierung mit dynamischem Laden (Lazy Load) umstellen, die anfängliche Auflistung auf 50 Produkte begrenzen, die FAQ nach oben verschieben.
Fall 2: Landing Page mit massivem Inline-SVG
Symptom: Deine Landing Page lädt langsam, obwohl wenig sichtbarer Inhalt vorhanden ist. Der Core-Web-Vitals-Score ist schlecht.
Diagnose mit dem Tool: Das HTML ist 1,8 MB groß, davon 1,2 MB Inline-SVG (Vektorillustrationen direkt im HTML eingebettet).
Maßnahme: SVG in externe Dateien auslagern, img-Tags mit SVG als Quelle verwenden oder in WebP konvertieren. Das HTML sinkt auf 300 KB.
Fall 3: Komprimierung nach Migration verloren
Symptom: Nach einem Serverwechsel laden deine Seiten langsamer und Google crawlt weniger Seiten.
Diagnose mit dem Tool: Der Header Content-Encoding fehlt. Der Server komprimiert das HTML nicht mehr. Die Seite mit 800 KB wird jetzt unkomprimiert ausgeliefert statt mit 200 KB gzip.
Maßnahme: gzip/Brotli-Komprimierung auf dem neuen Server reaktivieren. Nginx-/Apache-Konfiguration prüfen.
FAQ - Häufig gestellte Fragen
F: Wie groß ist eine durchschnittliche Webseite?
A: 2025 liegt das Mediangewicht einer Webseite bei etwa 2,5 MB (alle Ressourcentypen zusammen). Das reine HTML wiegt jedoch meist nur zwischen 50 KB und 500 KB. Für das Crawl-Limit von Googlebot zählt die HTML-Größe – nicht das Gesamtgewicht mit Bildern, CSS und JavaScript.
F: Wie finde ich das Gewicht einer Webseite heraus?
A: Gib die URL oben in den Page Size Checker ein. Das Tool misst die exakte Größe des vom Server zurückgegebenen HTML, analysiert die HTTP-Header und vergleicht das Ergebnis mit dem 2-MB-Limit von Googlebot. Alternativ kannst du die Chrome-DevTools (Tab „Network") nutzen – allerdings ohne die Googlebot-Konformitätsanalyse.
F: Was passiert, wenn eine Seite 2 MB überschreitet?
A: Googlebot schneidet das HTML ab 2.097.152 Bytes ab. Alles danach wird bei der Indexierung ignoriert. Konkret: Interne Links, strukturierte FAQ, SEO-Text am Seitenende fließen nicht mehr in das Ranking der Suchergebnisse ein.
F: Was ist das Crawl Budget?
A: Das Crawl Budget ist die Anzahl der Seiten, die Googlebot in einem bestimmten Zeitraum auf deiner Website crawlen kann. Schwere Seiten verbrauchen mehr Server- und Netzwerkressourcen und verringern die Gesamtzahl der gecrawlten Seiten. Leichtere Seiten ermöglichen Google, mehr Inhalte zu entdecken und zu indexieren.
F: Wie reduziere ich das Gewicht einer Webseite?
A: Die effektivsten Maßnahmen:
- Überflüssiges Inline-CSS/JS entfernen → In externe Dateien auslagern
- Komprimierung aktivieren → gzip oder Brotli auf Serverebene
- HTML minifizieren → Leerzeichen und Kommentare entfernen
- SVG auslagern → Inline-SVG durch
img-Tags ersetzen - Lazy Loading → Umfangreiche Inhalte bei Bedarf nachladen
F: Warum Googlebot Smartphone statt Desktop wählen?
A: Google nutzt seit 2019 Mobile-First Indexing. Die Smartphone-Version deiner Seite wird vorrangig indexiert und für das Ranking herangezogen. Teste mit dem User-Agent Googlebot Smartphone, um genau zu sehen, was Google indexiert. Der Desktop-Modus ist nützlich, um zu vergleichen, ob deine Website je nach Gerät unterschiedliches HTML ausliefert.
F: Zählt die gzip-Komprimierung zum 2-MB-Limit?
A: Nein. Das 2-MB-Limit gilt für das dekomprimierte HTML. Ein 3 MB großes HTML, das während der Übertragung auf 500 KB komprimiert wird, wird nach der Dekompression durch Googlebot trotzdem bei 2 MB abgeschnitten. Die Komprimierung verbessert die Übertragungsgeschwindigkeit, umgeht aber nicht das Größenlimit.
Ergänzende Tools
| Tool | Zweck |
|---|---|
| DNS-Lookup | DNS-Einträge deiner Domain prüfen |
| DNS-Propagationstest | Prüfen, ob deine DNS-Änderungen weltweit propagiert sind |
| E-Mail-Zustellbarkeitsaudit | MX, SPF, DKIM und DMARC deiner Domain analysieren |
Nützliche Ressourcen
- Google - Dokumentation zu Crawl-Limits (offizielle Googlebot-Dokumentation)
- Google - Mobile-First Indexing (Leitfaden zum Mobile-First Indexing)
- HTTP Archive - State of the Web (Statistiken zum Seitengewicht)
- Web.dev - Optimize Largest Contentful Paint (Web-Performance-Optimierung)