Aller au contenu principal

Vérificateur de poids de page web

Vérifiez si votre page dépasse la limite de 2 MB de Googlebot

Votre page est-elle trop lourde pour Google ? Mesurez le poids réel de votre HTML, analysez les headers HTTP et simulez ce que Googlebot voit après troncature. Page size checker gratuit, résultats en quelques secondes.

Analyse du poids en temps réel

Mesurez le poids exact de votre page en octets. Visualisez le ratio par rapport à la limite de 2 MB avec une barre de progression claire.

Détection de la limite Googlebot

Identifiez immédiatement si votre page dépasse les 2 097 152 octets que Googlebot peut indexer. Anticipez la troncature avant qu'elle n'impacte votre SEO.

Analyse des headers HTTP

Inspectez les headers de réponse : Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag. Détectez les configurations qui bloquent ou ralentissent le crawl.

Simulation de troncature

Visualisez exactement quels éléments HTML seraient perdus si Googlebot tronque votre page. Identifiez les liens internes, FAQ et contenus SEO en danger.

Recommandations actionnables

Chaque problème détecté s'accompagne d'une recommandation concrète : réduire le poids, optimiser les images inline, déplacer les scripts, compresser le HTML.

Pourquoi vérifier le poids de vos pages web ?

Si votre page HTML dépasse 2 MB, Googlebot la tronque silencieusement. Pas d'erreur dans la Search Console, pas d'avertissement : le contenu en bas de page disparaît simplement de l'index Google. Vos liens internes, votre FAQ structurée, votre texte SEO — invisibles pour le moteur de recherche.

Trois raisons de vérifier le poids de vos pages :

  • Éviter la troncature → Les pages avec du HTML inline lourd (SVG, CSS, JSON-LD volumineux) dépassent souvent la limite sans que vous le sachiez
  • Optimiser le crawl budget → Des pages plus légères = plus de pages crawlées par Google dans le temps imparti
  • Améliorer la vitesse → Un HTML léger se charge plus vite, meilleur Core Web Vitals, meilleur classement

Comment utiliser le vérificateur de poids de page en 3 étapes

Étape 1 : Entrer l'URL de la page

Saisissez l'URL complète de la page à analyser dans le champ ci-dessus. L'outil accepte toute URL publique accessible :

https://www.captaindns.com/fr

Testez vos pages les plus longues en priorité : pages catégories, pages produits avec beaucoup de variantes, articles de blog avec de nombreuses images inline.

Étape 2 : Choisir le User-Agent

Sélectionnez le User-Agent pour simuler le crawl :

  • Googlebot smartphone (recommandé) : simule le crawl mobile-first, celui que Google utilise pour l'indexation principale
  • Googlebot desktop : utile pour comparer la version desktop si votre site sert un HTML différent

Étape 3 : Consulter les résultats

Le rapport affiche :

  • Poids total : taille exacte du HTML en octets et en KB/MB
  • Barre de progression : ratio visuel par rapport à la limite de 2 MB
  • Headers HTTP : Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
  • Analyse HTML : structure de la page, nombre de balises, éléments détectés
  • Simulation de troncature : si applicable, visualisez exactement où Googlebot couperait
  • Recommandations : actions concrètes pour réduire le poids si nécessaire

Qu'est-ce que la limite de 2 MB de Googlebot ?

Google documente une limite de taille pour le crawl : Googlebot peut télécharger et indexer les premiers 2 097 152 octets (2 MB) du code source HTML d'une page. Au-delà, le contenu est tronqué.

Ce que cela signifie concrètement :

SituationImpact SEO
HTML < 2 MBPage indexée intégralement, aucun problème
HTML proche de 2 MBRisque de troncature sur les éléments en fin de page
HTML > 2 MBTroncature certaine : liens, FAQ, contenu de bas de page perdus

Attention : cette limite s'applique au HTML décompressé. La compression gzip/brotli ne change rien : un HTML de 3 MB compressé en transit sera toujours tronqué à 2 MB après décompression.

Pages à risque :

  • Pages e-commerce avec des centaines de produits listés en HTML
  • Landing pages avec du SVG inline ou du CSS embarqué volumineux
  • Pages avec du JSON-LD structuré très détaillé (ex: FAQ de 50+ questions)
  • Pages générées côté serveur avec du JavaScript inline abondant

Qu'analyse exactement l'outil ?

Analyse de taille

ÉlémentDescription
Taille brutePoids exact du HTML retourné par le serveur, en octets
Taille décompresséeTaille après décodage gzip/brotli (celle qui compte pour Googlebot)
Ratio 2 MBPourcentage de la limite de Googlebot consommé

Headers HTTP

HeaderPourquoi c'est important
Content-TypeConfirme que le serveur renvoie bien du HTML
Content-EncodingIndique si la compression est active (gzip, br)
Content-LengthTaille déclarée par le serveur (peut différer de la taille réelle)
X-Robots-TagDétecte un éventuel noindex/nofollow au niveau HTTP
Cache-ControlConfiguration du cache qui impacte la fréquence de crawl

Analyse HTML

ÉlémentCe que l'outil vérifie
Balises métaPrésence et contenu de title, description, robots
StructureHiérarchie des headings (H1-H6)
LiensNombre de liens internes et externes détectés

Cas d'usage concrets

Cas 1 : Page e-commerce avec des milliers de produits

Symptôme : Votre page catégorie liste 500 produits en HTML. Le bas de page (pagination, FAQ, liens vers les sous-catégories) n'apparaît pas dans les résultats Google.

Diagnostic avec l'outil : La page fait 3,2 MB de HTML. Googlebot tronque à 2 MB, perdant les 200 derniers produits, la FAQ et tous les liens de navigation en pied de page.

Action : Passer à une pagination avec chargement dynamique (lazy load), limiter le listing initial à 50 produits, déplacer la FAQ en haut de page.


Cas 2 : Landing page avec du SVG inline massif

Symptôme : Votre landing page charge lentement malgré peu de contenu visible. Le score Core Web Vitals est mauvais.

Diagnostic avec l'outil : Le HTML fait 1,8 MB dont 1,2 MB de SVG inline (illustrations vectorielles embarquées directement dans le HTML).

Action : Extraire les SVG dans des fichiers externes, utiliser des balises img avec les SVG en source, ou convertir en WebP. Le HTML passe à 300 KB.


Cas 3 : Migration avec perte de compression

Symptôme : Après une migration de serveur, vos pages chargent plus lentement et Google crawle moins de pages.

Diagnostic avec l'outil : Le header Content-Encoding est absent. Le serveur ne compresse plus le HTML. La page de 800 KB en gzip fait maintenant 800 KB sans compression au lieu de 200 KB compressé.

Action : Réactiver la compression gzip/brotli sur le nouveau serveur. Vérifier la configuration nginx/Apache.


❓ FAQ - Questions fréquentes

Q : Quel est le poids moyen d'une page web ?

R : En 2025, le poids médian d'une page web est d'environ 2,5 MB (tous types de ressources confondus). Mais le HTML seul pèse généralement entre 50 KB et 500 KB. C'est la taille du HTML qui compte pour la limite de crawl Googlebot, pas le poids total incluant images, CSS et JavaScript.


Q : Comment connaître le poids d'une page web ?

R : Entrez l'URL dans le vérificateur ci-dessus. L'outil mesure la taille exacte du HTML retourné par le serveur, analyse les headers HTTP et compare le résultat à la limite de 2 MB de Googlebot. Vous pouvez aussi utiliser les DevTools de Chrome (onglet Network) mais sans l'analyse de conformité Googlebot.


Q : Que se passe-t-il quand une page dépasse 2 MB ?

R : Googlebot tronque le HTML au-delà de 2 097 152 octets. Tout le contenu après ce point est ignoré pour l'indexation. Concrètement : liens internes, FAQ structurée, texte SEO en bas de page ne sont plus pris en compte pour le classement dans les résultats de recherche.


Q : Qu'est-ce que le budget de crawl ?

R : Le crawl budget est le nombre de pages que Googlebot peut crawler sur votre site dans un temps donné. Des pages lourdes consomment plus de ressources serveur et réseau, réduisant le nombre total de pages crawlées. Optimiser le poids de vos pages permet à Google de découvrir et indexer plus de contenu.


Q : Comment réduire le poids d'une page web ?

R : Les actions les plus efficaces :

  • Supprimer le CSS/JS inline inutile → Déplacer dans des fichiers externes
  • Activer la compression → gzip ou brotli au niveau serveur
  • Minifier le HTML → Supprimer espaces et commentaires
  • Externaliser les SVG → Remplacer les SVG inline par des balises img
  • Lazy loading → Charger le contenu volumineux à la demande

Q : Pourquoi choisir Googlebot smartphone plutôt que desktop ?

R : Google utilise le mobile-first indexing depuis 2019. C'est la version smartphone de votre page qui est indexée en priorité et utilisée pour le classement. Testez avec le User-Agent Googlebot smartphone pour voir exactement ce que Google indexe. Le mode desktop est utile pour comparer si votre site sert un HTML différent selon l'appareil.


Q : La compression gzip compte-t-elle dans la limite de 2 MB ?

R : Non. La limite de 2 MB s'applique au HTML décompressé. Un HTML de 3 MB compressé à 500 KB pendant le transfert réseau sera quand même tronqué à 2 MB une fois décompressé par Googlebot. La compression améliore la vitesse de transfert mais ne contourne pas la limite de taille.


Outils complémentaires

OutilUtilité
Recherche DNSVérifier les enregistrements DNS de votre domaine
Vérificateur de propagation DNSConfirmer que vos modifications DNS sont propagées globalement
Audit de délivrabilité emailAnalyser MX, SPF, DKIM et DMARC de votre domaine

Ressources utiles