Por que verificar o peso das suas páginas web?
Se o HTML da sua página ultrapassa 2 MB, o Googlebot o trunca silenciosamente. Sem erro no Search Console, sem aviso: o conteúdo no final da página simplesmente desaparece do índice do Google. Seus links internos, sua FAQ estruturada, seu texto SEO — invisíveis para o mecanismo de busca.
Três razões para verificar o peso das suas páginas:
- Evitar o truncamento → Páginas com HTML inline pesado (SVG, CSS, JSON-LD volumoso) frequentemente ultrapassam o limite sem que você perceba
- Otimizar o Crawl Budget → Páginas mais leves = mais páginas rastreadas pelo Google no tempo disponível
- Melhorar a velocidade → Um HTML leve carrega mais rápido, melhor Core Web Vitals, melhor ranqueamento
Como usar o Page Size Checker em 3 passos
Passo 1: Inserir a URL da página
Digite a URL completa da página a analisar no campo acima. A ferramenta aceita qualquer URL pública acessível:
https://www.captaindns.com/pt
Teste suas páginas mais longas primeiro: páginas de categoria, páginas de produto com muitas variantes, artigos de blog com muitas imagens inline.
Passo 2: Escolher o User-Agent
Selecione o User-Agent para simular o crawl:
- Googlebot smartphone (recomendado): simula o crawl mobile-first, aquele que o Google usa para a indexação principal
- Googlebot desktop: útil para comparar a versão desktop se seu site serve um HTML diferente
Passo 3: Consultar os resultados
O relatório exibe:
- Peso total: tamanho exato do HTML em bytes e em KB/MB
- Barra de progresso: proporção visual em relação ao limite de 2 MB
- Headers HTTP: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
- Análise HTML: estrutura da página, número de tags, elementos detectados
- Simulação de truncamento: se aplicável, visualize exatamente onde o Googlebot cortaria
- Recomendações: ações concretas para reduzir o peso se necessário
O que é o limite de 2 MB do Googlebot?
O Google documenta um limite de tamanho para o crawl: o Googlebot pode baixar e indexar os primeiros 2.097.152 bytes (2 MB) do código-fonte HTML de uma página. Além disso, o conteúdo é truncado.
O que isso significa na prática:
| Situação | Impacto SEO |
|---|---|
| HTML < 2 MB | Página indexada integralmente, sem problemas |
| HTML próximo de 2 MB | Risco de truncamento nos elementos no final da página |
| HTML > 2 MB | Truncamento certo: links, FAQ, conteúdo do rodapé perdidos |
Atenção: esse limite se aplica ao HTML descomprimido. A compressão gzip/brotli não muda nada: um HTML de 3 MB comprimido em trânsito continuará sendo truncado a 2 MB após a descompressão.
Páginas em risco:
- Páginas de e-commerce com centenas de produtos listados em HTML
- Landing pages com SVG inline ou CSS embutido volumoso
- Páginas com JSON-LD estruturado muito detalhado (ex: FAQ com mais de 50 perguntas)
- Páginas geradas no servidor com JavaScript inline abundante
O que a ferramenta analisa exatamente?
Análise de tamanho
| Elemento | Descrição |
|---|---|
| Tamanho bruto | Peso exato do HTML retornado pelo servidor, em bytes |
| Tamanho descomprimido | Tamanho após decodificação gzip/brotli (o que conta para o Googlebot) |
| Proporção 2 MB | Porcentagem do limite do Googlebot consumida |
Headers HTTP
| Header | Por que é importante |
|---|---|
| Content-Type | Confirma que o servidor retorna HTML |
| Content-Encoding | Indica se a compressão está ativa (gzip, br) |
| Content-Length | Tamanho declarado pelo servidor (pode diferir do tamanho real) |
| X-Robots-Tag | Detecta um possível noindex/nofollow no nível HTTP |
| Cache-Control | Configuração de cache que impacta a frequência de crawl |
Análise HTML
| Elemento | O que a ferramenta verifica |
|---|---|
| Meta tags | Presença e conteúdo de title, description, robots |
| Estrutura | Hierarquia dos headings (H1-H6) |
| Links | Número de links internos e externos detectados |
Casos de uso reais
Caso 1: Página de e-commerce com milhares de produtos
Sintoma: Sua página de categoria lista 500 produtos em HTML. O final da página (paginação, FAQ, links para subcategorias) não aparece nos resultados do Google.
Diagnóstico com a ferramenta: A página tem 3,2 MB de HTML. O Googlebot trunca em 2 MB, perdendo os 200 últimos produtos, a FAQ e todos os links de navegação do rodapé.
Ação: Migrar para paginação com carregamento dinâmico (lazy load), limitar a listagem inicial a 50 produtos, mover a FAQ para o topo da página.
Caso 2: Landing page com SVG inline massivo
Sintoma: Sua landing page carrega lentamente apesar de pouco conteúdo visível. A pontuação de Core Web Vitals está ruim.
Diagnóstico com a ferramenta: O HTML tem 1,8 MB, dos quais 1,2 MB são SVG inline (ilustrações vetoriais embutidas diretamente no HTML).
Ação: Extrair os SVGs para arquivos externos, usar tags img com os SVGs como fonte, ou converter para WebP. O HTML cai para 300 KB.
Caso 3: Migração com perda de compressão
Sintoma: Após uma migração de servidor, suas páginas carregam mais lentamente e o Google rastreia menos páginas.
Diagnóstico com a ferramenta: O header Content-Encoding está ausente. O servidor não comprime mais o HTML. A página de 800 KB em gzip agora tem 800 KB sem compressão em vez de 200 KB comprimidos.
Ação: Reativar a compressão gzip/brotli no novo servidor. Verificar a configuração do nginx/Apache.
FAQ - Perguntas frequentes
P: Qual é o peso médio de uma página web?
R: Em 2025, o peso mediano de uma página web é de aproximadamente 2,5 MB (todos os tipos de recursos incluídos). Porém, o HTML sozinho pesa geralmente entre 50 KB e 500 KB. É o tamanho do HTML que conta para o limite de crawl do Googlebot, não o peso total incluindo imagens, CSS e JavaScript.
P: Como saber o peso de uma página web?
R: Insira a URL no Page Size Checker acima. A ferramenta mede o tamanho exato do HTML retornado pelo servidor, analisa os headers HTTP e compara o resultado com o limite de 2 MB do Googlebot. Você também pode usar o DevTools do Chrome (aba Network), mas sem a análise de conformidade do Googlebot.
P: O que acontece quando uma página ultrapassa 2 MB?
R: O Googlebot trunca o HTML além de 2.097.152 bytes. Todo o conteúdo após esse ponto é ignorado para indexação. Na prática: links internos, FAQ estruturada, texto SEO no final da página não são mais considerados para o ranqueamento nos resultados de busca.
P: O que é o Crawl Budget?
R: O Crawl Budget é o número de páginas que o Googlebot pode rastrear no seu site em um período determinado. Páginas pesadas consomem mais recursos do servidor e da rede, reduzindo o número total de páginas rastreadas. Otimizar o peso das suas páginas permite ao Google descobrir e indexar mais conteúdo.
P: Como reduzir o peso de uma página web?
R: As ações mais eficazes:
- Remover CSS/JS inline desnecessário → Mover para arquivos externos
- Ativar a compressão → gzip ou brotli no servidor
- Minificar o HTML → Remover espaços e comentários
- Externalizar os SVGs → Substituir SVGs inline por tags
img - Lazy loading → Carregar conteúdo volumoso sob demanda
P: Por que escolher Googlebot smartphone em vez de desktop?
R: O Google usa o mobile-first indexing desde 2019. É a versão smartphone da sua página que é indexada prioritariamente e usada para o ranqueamento. Teste com o User-Agent Googlebot smartphone para ver exatamente o que o Google indexa. O modo desktop é útil para comparar se seu site serve um HTML diferente de acordo com o dispositivo.
P: A compressão gzip conta no limite de 2 MB?
R: Não. O limite de 2 MB se aplica ao HTML descomprimido. Um HTML de 3 MB comprimido para 500 KB durante a transferência de rede será truncado a 2 MB assim que descomprimido pelo Googlebot. A compressão melhora a velocidade de transferência, mas não contorna o limite de tamanho.
Ferramentas complementares
| Ferramenta | Utilidade |
|---|---|
| Pesquisa DNS | Verificar os registros DNS do seu domínio |
| Verificador de propagação DNS | Confirmar que suas alterações DNS estão propagadas globalmente |
| Auditoria de entregabilidade de email | Analisar MX, SPF, DKIM e DMARC do seu domínio |
Recursos úteis
- Google - Documentação sobre limites de crawl (documentação oficial do Googlebot)
- Google - Mobile-first indexing (guia do mobile-first indexing)
- HTTP Archive - State of the Web (estatísticas sobre o peso das páginas web)
- Web.dev - Optimize Largest Contentful Paint (otimização de performance web)