Perché verificare il peso delle tue pagine web?
Se il tuo HTML supera i 2 MB, Googlebot lo tronca silenziosamente. Nessun errore in Search Console, nessun avviso: il contenuto in fondo alla pagina sparisce semplicemente dall'indice di Google. I tuoi link interni, la tua FAQ strutturata, il tuo testo SEO — invisibili per il motore di ricerca.
Tre motivi per verificare il peso delle tue pagine:
- Evitare il troncamento → Le pagine con HTML inline pesante (SVG, CSS, JSON-LD voluminosi) superano spesso il limite senza che tu lo sappia
- Ottimizzare il Crawl Budget → Pagine più leggere = più pagine scansionate da Google nel tempo a disposizione
- Migliorare la velocità → Un HTML leggero si carica più velocemente: migliori Core Web Vitals, miglior posizionamento
Come usare il Page Size Checker in 3 passaggi
Passaggio 1: Inserire l'URL della pagina
Inserisci l'URL completo della pagina da analizzare nel campo qui sopra. Lo strumento accetta qualsiasi URL pubblico accessibile:
https://www.captaindns.com/it
Testa prima le tue pagine più lunghe: pagine categoria, pagine prodotto con molte varianti, articoli del blog con numerose immagini inline.
Passaggio 2: Scegliere lo User-Agent
Seleziona lo User-Agent per simulare il crawl:
- Googlebot smartphone (consigliato): simula il crawl mobile-first, quello che Google usa per l'indicizzazione principale
- Googlebot desktop: utile per confrontare la versione desktop se il tuo sito serve un HTML diverso
Passaggio 3: Consultare i risultati
Il report mostra:
- Peso totale: dimensione esatta dell'HTML in byte e in KB/MB
- Barra di avanzamento: rapporto visivo rispetto al limite di 2 MB
- Header HTTP: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
- Analisi HTML: struttura della pagina, numero di tag, elementi rilevati
- Simulazione del troncamento: se applicabile, visualizza esattamente dove Googlebot taglierebbe
- Raccomandazioni: azioni concrete per ridurre il peso se necessario
Cos'è il limite di 2 MB di Googlebot?
Google documenta un limite di dimensione per il crawl: Googlebot può scaricare e indicizzare i primi 2.097.152 byte (2 MB) del codice sorgente HTML di una pagina. Oltre questa soglia, il contenuto viene troncato.
Cosa significa in pratica:
| Situazione | Impatto SEO |
|---|---|
| HTML < 2 MB | Pagina indicizzata integralmente, nessun problema |
| HTML vicino a 2 MB | Rischio di troncamento sugli elementi in fondo alla pagina |
| HTML > 2 MB | Troncamento certo: link, FAQ, contenuto di fondo pagina persi |
Attenzione: questo limite si applica all'HTML decompresso. La compressione gzip/brotli non cambia nulla: un HTML di 3 MB compresso in transito verrà comunque troncato a 2 MB dopo la decompressione.
Pagine a rischio:
- Pagine e-commerce con centinaia di prodotti elencati in HTML
- Landing page con SVG inline o CSS incorporati voluminosi
- Pagine con JSON-LD strutturato molto dettagliato (es: FAQ di oltre 50 domande)
- Pagine generate lato server con JavaScript inline abbondante
Cosa analizza esattamente lo strumento?
Analisi della dimensione
| Elemento | Descrizione |
|---|---|
| Dimensione grezza | Peso esatto dell'HTML restituito dal server, in byte |
| Dimensione decompressa | Dimensione dopo la decodifica gzip/brotli (quella che conta per Googlebot) |
| Rapporto 2 MB | Percentuale del limite di Googlebot consumata |
Header HTTP
| Header | Perché è importante |
|---|---|
| Content-Type | Conferma che il server restituisca effettivamente HTML |
| Content-Encoding | Indica se la compressione è attiva (gzip, br) |
| Content-Length | Dimensione dichiarata dal server (può differire dalla dimensione reale) |
| X-Robots-Tag | Rileva un eventuale noindex/nofollow a livello HTTP |
| Cache-Control | Configurazione della cache che impatta la frequenza di crawl |
Analisi HTML
| Elemento | Cosa verifica lo strumento |
|---|---|
| Meta tag | Presenza e contenuto di title, description, robots |
| Struttura | Gerarchia degli heading (H1-H6) |
| Link | Numero di link interni ed esterni rilevati |
Casi d'uso reali
Caso 1: Pagina e-commerce con migliaia di prodotti
Sintomo: La tua pagina categoria elenca 500 prodotti in HTML. Il fondo pagina (paginazione, FAQ, link alle sottocategorie) non appare nei risultati Google.
Diagnosi con lo strumento: La pagina pesa 3,2 MB di HTML. Googlebot tronca a 2 MB, perdendo gli ultimi 200 prodotti, la FAQ e tutti i link di navigazione nel footer.
Azione: Passare a una paginazione con caricamento dinamico (lazy load), limitare il listing iniziale a 50 prodotti, spostare la FAQ in alto nella pagina.
Caso 2: Landing page con SVG inline massiccio
Sintomo: La tua landing page si carica lentamente nonostante poco contenuto visibile. Il punteggio Core Web Vitals è negativo.
Diagnosi con lo strumento: L'HTML pesa 1,8 MB di cui 1,2 MB di SVG inline (illustrazioni vettoriali incorporate direttamente nell'HTML).
Azione: Estrarre gli SVG in file esterni, usare tag img con gli SVG come sorgente, oppure convertire in WebP. L'HTML scende a 300 KB.
Caso 3: Migrazione con perdita della compressione
Sintomo: Dopo una migrazione del server, le tue pagine si caricano più lentamente e Google scansiona meno pagine.
Diagnosi con lo strumento: L'header Content-Encoding è assente. Il server non comprime più l'HTML. La pagina da 800 KB con gzip ora pesa 800 KB senza compressione invece di 200 KB compressi.
Azione: Riattivare la compressione gzip/brotli sul nuovo server. Verificare la configurazione nginx/Apache.
FAQ - Domande frequenti
D: Qual è il peso medio di una pagina web?
R: Nel 2025, il peso mediano di una pagina web è di circa 2,5 MB (tutte le risorse incluse). Ma il solo HTML pesa generalmente tra 50 KB e 500 KB. È la dimensione dell'HTML che conta per il limite di crawl di Googlebot, non il peso totale comprensivo di immagini, CSS e JavaScript.
D: Come conoscere il peso di una pagina web?
R: Inserisci l'URL nel Page Size Checker qui sopra. Lo strumento misura la dimensione esatta dell'HTML restituito dal server, analizza gli header HTTP e confronta il risultato con il limite di 2 MB di Googlebot. Puoi anche usare i DevTools di Chrome (scheda Network) ma senza l'analisi di conformità Googlebot.
D: Cosa succede quando una pagina supera i 2 MB?
R: Googlebot tronca l'HTML oltre i 2.097.152 byte. Tutto il contenuto dopo questo punto viene ignorato per l'indicizzazione. In concreto: link interni, FAQ strutturate, testo SEO in fondo alla pagina non vengono più considerati per il posizionamento nei risultati di ricerca.
D: Cos'è il Crawl Budget?
R: Il Crawl Budget è il numero di pagine che Googlebot può scansionare sul tuo sito in un dato periodo. Pagine pesanti consumano più risorse server e di rete, riducendo il numero totale di pagine scansionate. Ottimizzare il peso delle tue pagine consente a Google di scoprire e indicizzare più contenuti.
D: Come ridurre il peso di una pagina web?
R: Le azioni più efficaci:
- Eliminare CSS/JS inline inutili → Spostarli in file esterni
- Attivare la compressione → gzip o brotli a livello server
- Minificare l'HTML → Rimuovere spazi e commenti
- Esternalizzare gli SVG → Sostituire gli SVG inline con tag
img - Lazy loading → Caricare i contenuti voluminosi on demand
D: Perché scegliere Googlebot smartphone invece di desktop?
R: Google utilizza il mobile-first indexing dal 2019. È la versione smartphone della tua pagina a essere indicizzata per prima e usata per il posizionamento. Testa con lo User-Agent Googlebot smartphone per vedere esattamente cosa Google indicizza. La modalità desktop è utile per confrontare se il tuo sito serve un HTML diverso in base al dispositivo.
D: La compressione gzip rientra nel limite di 2 MB?
R: No. Il limite di 2 MB si applica all'HTML decompresso. Un HTML di 3 MB compresso a 500 KB durante il trasferimento di rete verrà comunque troncato a 2 MB una volta decompresso da Googlebot. La compressione migliora la velocità di trasferimento ma non aggira il limite di dimensione.
Strumenti complementari
| Strumento | Utilità |
|---|---|
| Ricerca DNS | Verificare i record DNS del tuo dominio |
| Test di propagazione DNS | Confermare che le tue modifiche DNS sono propagate a livello globale |
| Audit di deliverability email | Analizzare MX, SPF, DKIM e DMARC del tuo dominio |
Risorse utili
- Google - Documentazione sui limiti di crawl (documentazione ufficiale Googlebot)
- Google - Mobile-first indexing (guida al mobile-first indexing)
- HTTP Archive - State of the Web (statistiche sul peso delle pagine web)
- Web.dev - Optimize Largest Contentful Paint (ottimizzazione delle prestazioni web)