Zum Hauptinhalt springen

Webseiten-Gewichtsprüfer

Prüfe, ob deine Seite das 2-MB-Limit von Googlebot überschreitet

Ist deine Seite zu groß für Google? Miss das tatsächliche Gewicht deines HTML, analysiere die HTTP-Header und simuliere, was Googlebot nach der Trunkierung sieht. Kostenloser Page Size Checker, Ergebnisse in Sekunden.

Gewichtsanalyse in Echtzeit

Miss das exakte Gewicht deiner Seite in Bytes. Visualisiere das Verhältnis zum 2-MB-Limit mit einem übersichtlichen Fortschrittsbalken.

Erkennung des Googlebot-Limits

Erkenne sofort, ob deine Seite die 2.097.152 Bytes überschreitet, die Googlebot indexieren kann. Handele, bevor die Trunkierung dein SEO beeinträchtigt.

HTTP-Header-Analyse

Inspiziere die Antwort-Header: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag. Erkenne Konfigurationen, die den Crawl blockieren oder verlangsamen.

Trunkierungssimulation

Sieh genau, welche HTML-Elemente verloren gehen, wenn Googlebot deine Seite abschneidet. Identifiziere gefährdete interne Links, FAQ und SEO-Inhalte.

Umsetzbare Empfehlungen

Zu jedem erkannten Problem gibt es eine konkrete Empfehlung: Gewicht reduzieren, Inline-Bilder optimieren, Skripte auslagern, HTML komprimieren.

Warum das Gewicht deiner Webseiten prüfen?

Wenn dein HTML 2 MB überschreitet, schneidet Googlebot es stillschweigend ab. Keine Fehlermeldung in der Search Console, keine Warnung: Der Inhalt am Seitenende verschwindet einfach aus dem Google-Index. Deine internen Links, deine strukturierte FAQ, dein SEO-Text – für die Suchmaschine unsichtbar.

Drei Gründe, das Gewicht deiner Seiten zu prüfen:

  • Trunkierung vermeiden → Seiten mit umfangreichem Inline-HTML (SVG, CSS, großes JSON-LD) überschreiten oft das Limit, ohne dass du es merkst
  • Crawl Budget optimieren → Leichtere Seiten = mehr von Google gecrawlte Seiten in der verfügbaren Zeit
  • Geschwindigkeit verbessern → Leichtes HTML lädt schneller, bessere Core Web Vitals, besseres Ranking

So nutzt du den Page Size Checker in 3 Schritten

Schritt 1: URL der Seite eingeben

Gib die vollständige URL der zu analysierenden Seite in das Feld oben ein. Das Tool akzeptiert jede öffentlich zugängliche URL:

https://www.captaindns.com/de

Teste zuerst deine längsten Seiten: Kategorieseiten, Produktseiten mit vielen Varianten, Blogartikel mit zahlreichen Inline-Bildern.

Schritt 2: User-Agent wählen

Wähle den User-Agent, um den Crawl zu simulieren:

  • Googlebot Smartphone (empfohlen): Simuliert den Mobile-First-Crawl, den Google für die primäre Indexierung nutzt
  • Googlebot Desktop: Nützlich, um die Desktop-Version zu vergleichen, falls deine Seite unterschiedliches HTML ausliefert

Schritt 3: Ergebnisse ansehen

Der Bericht zeigt:

  • Gesamtgewicht: Exakte HTML-Größe in Bytes und in KB/MB
  • Fortschrittsbalken: Visuelles Verhältnis zum 2-MB-Limit
  • HTTP-Header: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
  • HTML-Analyse: Seitenstruktur, Anzahl der Tags, erkannte Elemente
  • Trunkierungssimulation: Falls zutreffend, zeigt genau, wo Googlebot abschneiden würde
  • Empfehlungen: Konkrete Maßnahmen zur Gewichtsreduzierung

Was ist das 2-MB-Limit von Googlebot?

Google dokumentiert ein Größenlimit für den Crawl: Googlebot kann die ersten 2.097.152 Bytes (2 MB) des HTML-Quellcodes einer Seite herunterladen und indexieren. Darüber hinaus wird der Inhalt abgeschnitten.

Was das konkret bedeutet:

SituationSEO-Auswirkung
HTML < 2 MBSeite vollständig indexiert, kein Problem
HTML nahe 2 MBRisiko der Trunkierung bei Elementen am Seitenende
HTML > 2 MBSichere Trunkierung: Links, FAQ, Inhalte am Seitenende gehen verloren

Achtung: Dieses Limit gilt für das dekomprimierte HTML. Die gzip/Brotli-Komprimierung ändert nichts daran: Ein 3 MB großes HTML, das komprimiert übertragen wird, wird nach der Dekompression trotzdem bei 2 MB abgeschnitten.

Seiten mit erhöhtem Risiko:

  • E-Commerce-Seiten mit Hunderten von Produkten im HTML
  • Landing Pages mit Inline-SVG oder umfangreichem eingebettetem CSS
  • Seiten mit sehr detaillierten JSON-LD-Daten (z. B. FAQ mit über 50 Fragen)
  • Serverseitig generierte Seiten mit viel Inline-JavaScript

Was genau analysiert das Tool?

Größenanalyse

ElementBeschreibung
RohgrößeExaktes Gewicht des vom Server zurückgegebenen HTML in Bytes
Dekomprimierte GrößeGröße nach gzip/Brotli-Dekodierung (relevant für Googlebot)
2-MB-VerhältnisProzentsatz des verbrauchten Googlebot-Limits

HTTP-Header

HeaderWarum das wichtig ist
Content-TypeBestätigt, dass der Server tatsächlich HTML ausliefert
Content-EncodingZeigt an, ob Komprimierung aktiv ist (gzip, br)
Content-LengthVom Server deklarierte Größe (kann von der tatsächlichen abweichen)
X-Robots-TagErkennt ein mögliches noindex/nofollow auf HTTP-Ebene
Cache-ControlCache-Konfiguration, die die Crawl-Häufigkeit beeinflusst

HTML-Analyse

ElementWas das Tool prüft
Meta-TagsVorhandensein und Inhalt von Title, Description, Robots
StrukturHeading-Hierarchie (H1–H6)
LinksAnzahl erkannter interner und externer Links

Praxisnahe Anwendungsfälle

Fall 1: E-Commerce-Seite mit Tausenden Produkten

Symptom: Deine Kategorieseite listet 500 Produkte im HTML auf. Das Seitenende (Paginierung, FAQ, Links zu Unterkategorien) erscheint nicht in den Google-Ergebnissen.

Diagnose mit dem Tool: Die Seite hat 3,2 MB HTML. Googlebot schneidet bei 2 MB ab und verliert die letzten 200 Produkte, die FAQ und alle Navigationslinks im Footer.

Maßnahme: Auf Paginierung mit dynamischem Laden (Lazy Load) umstellen, die anfängliche Auflistung auf 50 Produkte begrenzen, die FAQ nach oben verschieben.


Fall 2: Landing Page mit massivem Inline-SVG

Symptom: Deine Landing Page lädt langsam, obwohl wenig sichtbarer Inhalt vorhanden ist. Der Core-Web-Vitals-Score ist schlecht.

Diagnose mit dem Tool: Das HTML ist 1,8 MB groß, davon 1,2 MB Inline-SVG (Vektorillustrationen direkt im HTML eingebettet).

Maßnahme: SVG in externe Dateien auslagern, img-Tags mit SVG als Quelle verwenden oder in WebP konvertieren. Das HTML sinkt auf 300 KB.


Fall 3: Komprimierung nach Migration verloren

Symptom: Nach einem Serverwechsel laden deine Seiten langsamer und Google crawlt weniger Seiten.

Diagnose mit dem Tool: Der Header Content-Encoding fehlt. Der Server komprimiert das HTML nicht mehr. Die Seite mit 800 KB wird jetzt unkomprimiert ausgeliefert statt mit 200 KB gzip.

Maßnahme: gzip/Brotli-Komprimierung auf dem neuen Server reaktivieren. Nginx-/Apache-Konfiguration prüfen.


FAQ - Häufig gestellte Fragen

F: Wie groß ist eine durchschnittliche Webseite?

A: 2025 liegt das Mediangewicht einer Webseite bei etwa 2,5 MB (alle Ressourcentypen zusammen). Das reine HTML wiegt jedoch meist nur zwischen 50 KB und 500 KB. Für das Crawl-Limit von Googlebot zählt die HTML-Größe – nicht das Gesamtgewicht mit Bildern, CSS und JavaScript.


F: Wie finde ich das Gewicht einer Webseite heraus?

A: Gib die URL oben in den Page Size Checker ein. Das Tool misst die exakte Größe des vom Server zurückgegebenen HTML, analysiert die HTTP-Header und vergleicht das Ergebnis mit dem 2-MB-Limit von Googlebot. Alternativ kannst du die Chrome-DevTools (Tab „Network") nutzen – allerdings ohne die Googlebot-Konformitätsanalyse.


F: Was passiert, wenn eine Seite 2 MB überschreitet?

A: Googlebot schneidet das HTML ab 2.097.152 Bytes ab. Alles danach wird bei der Indexierung ignoriert. Konkret: Interne Links, strukturierte FAQ, SEO-Text am Seitenende fließen nicht mehr in das Ranking der Suchergebnisse ein.


F: Was ist das Crawl Budget?

A: Das Crawl Budget ist die Anzahl der Seiten, die Googlebot in einem bestimmten Zeitraum auf deiner Website crawlen kann. Schwere Seiten verbrauchen mehr Server- und Netzwerkressourcen und verringern die Gesamtzahl der gecrawlten Seiten. Leichtere Seiten ermöglichen Google, mehr Inhalte zu entdecken und zu indexieren.


F: Wie reduziere ich das Gewicht einer Webseite?

A: Die effektivsten Maßnahmen:

  • Überflüssiges Inline-CSS/JS entfernen → In externe Dateien auslagern
  • Komprimierung aktivieren → gzip oder Brotli auf Serverebene
  • HTML minifizieren → Leerzeichen und Kommentare entfernen
  • SVG auslagern → Inline-SVG durch img-Tags ersetzen
  • Lazy Loading → Umfangreiche Inhalte bei Bedarf nachladen

F: Warum Googlebot Smartphone statt Desktop wählen?

A: Google nutzt seit 2019 Mobile-First Indexing. Die Smartphone-Version deiner Seite wird vorrangig indexiert und für das Ranking herangezogen. Teste mit dem User-Agent Googlebot Smartphone, um genau zu sehen, was Google indexiert. Der Desktop-Modus ist nützlich, um zu vergleichen, ob deine Website je nach Gerät unterschiedliches HTML ausliefert.


F: Zählt die gzip-Komprimierung zum 2-MB-Limit?

A: Nein. Das 2-MB-Limit gilt für das dekomprimierte HTML. Ein 3 MB großes HTML, das während der Übertragung auf 500 KB komprimiert wird, wird nach der Dekompression durch Googlebot trotzdem bei 2 MB abgeschnitten. Die Komprimierung verbessert die Übertragungsgeschwindigkeit, umgeht aber nicht das Größenlimit.


Ergänzende Tools

ToolZweck
DNS-LookupDNS-Einträge deiner Domain prüfen
DNS-PropagationstestPrüfen, ob deine DNS-Änderungen weltweit propagiert sind
E-Mail-ZustellbarkeitsauditMX, SPF, DKIM und DMARC deiner Domain analysieren

Nützliche Ressourcen