Pourquoi vérifier le poids de vos pages web ?
Si votre page HTML dépasse 2 MB, Googlebot la tronque silencieusement. Pas d'erreur dans la Search Console, pas d'avertissement : le contenu en bas de page disparaît simplement de l'index Google. Vos liens internes, votre FAQ structurée, votre texte SEO — invisibles pour le moteur de recherche.
Trois raisons de vérifier le poids de vos pages :
- Éviter la troncature → Les pages avec du HTML inline lourd (SVG, CSS, JSON-LD volumineux) dépassent souvent la limite sans que vous le sachiez
- Optimiser le crawl budget → Des pages plus légères = plus de pages crawlées par Google dans le temps imparti
- Améliorer la vitesse → Un HTML léger se charge plus vite, meilleur Core Web Vitals, meilleur classement
Comment utiliser le vérificateur de poids de page en 3 étapes
Étape 1 : Entrer l'URL de la page
Saisissez l'URL complète de la page à analyser dans le champ ci-dessus. L'outil accepte toute URL publique accessible :
https://www.captaindns.com/fr
Testez vos pages les plus longues en priorité : pages catégories, pages produits avec beaucoup de variantes, articles de blog avec de nombreuses images inline.
Étape 2 : Choisir le User-Agent
Sélectionnez le User-Agent pour simuler le crawl :
- Googlebot smartphone (recommandé) : simule le crawl mobile-first, celui que Google utilise pour l'indexation principale
- Googlebot desktop : utile pour comparer la version desktop si votre site sert un HTML différent
Étape 3 : Consulter les résultats
Le rapport affiche :
- Poids total : taille exacte du HTML en octets et en KB/MB
- Barre de progression : ratio visuel par rapport à la limite de 2 MB
- Headers HTTP : Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
- Analyse HTML : structure de la page, nombre de balises, éléments détectés
- Simulation de troncature : si applicable, visualisez exactement où Googlebot couperait
- Recommandations : actions concrètes pour réduire le poids si nécessaire
Qu'est-ce que la limite de 2 MB de Googlebot ?
Google documente une limite de taille pour le crawl : Googlebot peut télécharger et indexer les premiers 2 097 152 octets (2 MB) du code source HTML d'une page. Au-delà, le contenu est tronqué.
Ce que cela signifie concrètement :
| Situation | Impact SEO |
|---|---|
| HTML < 2 MB | Page indexée intégralement, aucun problème |
| HTML proche de 2 MB | Risque de troncature sur les éléments en fin de page |
| HTML > 2 MB | Troncature certaine : liens, FAQ, contenu de bas de page perdus |
Attention : cette limite s'applique au HTML décompressé. La compression gzip/brotli ne change rien : un HTML de 3 MB compressé en transit sera toujours tronqué à 2 MB après décompression.
Pages à risque :
- Pages e-commerce avec des centaines de produits listés en HTML
- Landing pages avec du SVG inline ou du CSS embarqué volumineux
- Pages avec du JSON-LD structuré très détaillé (ex: FAQ de 50+ questions)
- Pages générées côté serveur avec du JavaScript inline abondant
Qu'analyse exactement l'outil ?
Analyse de taille
| Élément | Description |
|---|---|
| Taille brute | Poids exact du HTML retourné par le serveur, en octets |
| Taille décompressée | Taille après décodage gzip/brotli (celle qui compte pour Googlebot) |
| Ratio 2 MB | Pourcentage de la limite de Googlebot consommé |
Headers HTTP
| Header | Pourquoi c'est important |
|---|---|
| Content-Type | Confirme que le serveur renvoie bien du HTML |
| Content-Encoding | Indique si la compression est active (gzip, br) |
| Content-Length | Taille déclarée par le serveur (peut différer de la taille réelle) |
| X-Robots-Tag | Détecte un éventuel noindex/nofollow au niveau HTTP |
| Cache-Control | Configuration du cache qui impacte la fréquence de crawl |
Analyse HTML
| Élément | Ce que l'outil vérifie |
|---|---|
| Balises méta | Présence et contenu de title, description, robots |
| Structure | Hiérarchie des headings (H1-H6) |
| Liens | Nombre de liens internes et externes détectés |
Cas d'usage concrets
Cas 1 : Page e-commerce avec des milliers de produits
Symptôme : Votre page catégorie liste 500 produits en HTML. Le bas de page (pagination, FAQ, liens vers les sous-catégories) n'apparaît pas dans les résultats Google.
Diagnostic avec l'outil : La page fait 3,2 MB de HTML. Googlebot tronque à 2 MB, perdant les 200 derniers produits, la FAQ et tous les liens de navigation en pied de page.
Action : Passer à une pagination avec chargement dynamique (lazy load), limiter le listing initial à 50 produits, déplacer la FAQ en haut de page.
Cas 2 : Landing page avec du SVG inline massif
Symptôme : Votre landing page charge lentement malgré peu de contenu visible. Le score Core Web Vitals est mauvais.
Diagnostic avec l'outil : Le HTML fait 1,8 MB dont 1,2 MB de SVG inline (illustrations vectorielles embarquées directement dans le HTML).
Action : Extraire les SVG dans des fichiers externes, utiliser des balises img avec les SVG en source, ou convertir en WebP. Le HTML passe à 300 KB.
Cas 3 : Migration avec perte de compression
Symptôme : Après une migration de serveur, vos pages chargent plus lentement et Google crawle moins de pages.
Diagnostic avec l'outil : Le header Content-Encoding est absent. Le serveur ne compresse plus le HTML. La page de 800 KB en gzip fait maintenant 800 KB sans compression au lieu de 200 KB compressé.
Action : Réactiver la compression gzip/brotli sur le nouveau serveur. Vérifier la configuration nginx/Apache.
❓ FAQ - Questions fréquentes
Q : Quel est le poids moyen d'une page web ?
R : En 2025, le poids médian d'une page web est d'environ 2,5 MB (tous types de ressources confondus). Mais le HTML seul pèse généralement entre 50 KB et 500 KB. C'est la taille du HTML qui compte pour la limite de crawl Googlebot, pas le poids total incluant images, CSS et JavaScript.
Q : Comment connaître le poids d'une page web ?
R : Entrez l'URL dans le vérificateur ci-dessus. L'outil mesure la taille exacte du HTML retourné par le serveur, analyse les headers HTTP et compare le résultat à la limite de 2 MB de Googlebot. Vous pouvez aussi utiliser les DevTools de Chrome (onglet Network) mais sans l'analyse de conformité Googlebot.
Q : Que se passe-t-il quand une page dépasse 2 MB ?
R : Googlebot tronque le HTML au-delà de 2 097 152 octets. Tout le contenu après ce point est ignoré pour l'indexation. Concrètement : liens internes, FAQ structurée, texte SEO en bas de page ne sont plus pris en compte pour le classement dans les résultats de recherche.
Q : Qu'est-ce que le budget de crawl ?
R : Le crawl budget est le nombre de pages que Googlebot peut crawler sur votre site dans un temps donné. Des pages lourdes consomment plus de ressources serveur et réseau, réduisant le nombre total de pages crawlées. Optimiser le poids de vos pages permet à Google de découvrir et indexer plus de contenu.
Q : Comment réduire le poids d'une page web ?
R : Les actions les plus efficaces :
- Supprimer le CSS/JS inline inutile → Déplacer dans des fichiers externes
- Activer la compression → gzip ou brotli au niveau serveur
- Minifier le HTML → Supprimer espaces et commentaires
- Externaliser les SVG → Remplacer les SVG inline par des balises
img - Lazy loading → Charger le contenu volumineux à la demande
Q : Pourquoi choisir Googlebot smartphone plutôt que desktop ?
R : Google utilise le mobile-first indexing depuis 2019. C'est la version smartphone de votre page qui est indexée en priorité et utilisée pour le classement. Testez avec le User-Agent Googlebot smartphone pour voir exactement ce que Google indexe. Le mode desktop est utile pour comparer si votre site sert un HTML différent selon l'appareil.
Q : La compression gzip compte-t-elle dans la limite de 2 MB ?
R : Non. La limite de 2 MB s'applique au HTML décompressé. Un HTML de 3 MB compressé à 500 KB pendant le transfert réseau sera quand même tronqué à 2 MB une fois décompressé par Googlebot. La compression améliore la vitesse de transfert mais ne contourne pas la limite de taille.
Outils complémentaires
| Outil | Utilité |
|---|---|
| Recherche DNS | Vérifier les enregistrements DNS de votre domaine |
| Vérificateur de propagation DNS | Confirmer que vos modifications DNS sont propagées globalement |
| Audit de délivrabilité email | Analyser MX, SPF, DKIM et DMARC de votre domaine |
Ressources utiles
- Google - Documentation sur les limites de crawl (documentation officielle Googlebot)
- Google - Mobile-first indexing (guide du mobile-first indexing)
- HTTP Archive - State of the Web (statistiques sur le poids des pages web)
- Web.dev - Optimize Largest Contentful Paint (optimisation des performances web)