Ir para o conteudo principal

Verificador de peso da página web

Verifique se sua página ultrapassa o limite de 2 MB do Googlebot

Sua página é pesada demais para o Google? Meça o peso real do seu HTML, analise os headers HTTP e simule o que o Googlebot vê após o truncamento. Page Size Checker gratuito, resultados em poucos segundos.

Análise de peso em tempo real

Meça o peso exato da sua página em bytes. Visualize a proporção em relação ao limite de 2 MB com uma barra de progresso clara.

Detecção do limite do Googlebot

Identifique imediatamente se sua página ultrapassa os 2.097.152 bytes que o Googlebot pode indexar. Antecipe o truncamento antes que ele impacte seu SEO.

Análise dos headers HTTP

Inspecione os headers de resposta: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag. Detecte configurações que bloqueiam ou atrasam o crawl.

Simulação de truncamento

Visualize exatamente quais elementos HTML seriam perdidos se o Googlebot truncar sua página. Identifique os links internos, FAQ e conteúdos SEO em risco.

Recomendações práticas

Cada problema detectado vem acompanhado de uma recomendação concreta: reduzir o peso, otimizar imagens inline, mover scripts, comprimir o HTML.

Por que verificar o peso das suas páginas web?

Se o HTML da sua página ultrapassa 2 MB, o Googlebot o trunca silenciosamente. Sem erro no Search Console, sem aviso: o conteúdo no final da página simplesmente desaparece do índice do Google. Seus links internos, sua FAQ estruturada, seu texto SEO — invisíveis para o mecanismo de busca.

Três razões para verificar o peso das suas páginas:

  • Evitar o truncamento → Páginas com HTML inline pesado (SVG, CSS, JSON-LD volumoso) frequentemente ultrapassam o limite sem que você perceba
  • Otimizar o Crawl Budget → Páginas mais leves = mais páginas rastreadas pelo Google no tempo disponível
  • Melhorar a velocidade → Um HTML leve carrega mais rápido, melhor Core Web Vitals, melhor ranqueamento

Como usar o Page Size Checker em 3 passos

Passo 1: Inserir a URL da página

Digite a URL completa da página a analisar no campo acima. A ferramenta aceita qualquer URL pública acessível:

https://www.captaindns.com/pt

Teste suas páginas mais longas primeiro: páginas de categoria, páginas de produto com muitas variantes, artigos de blog com muitas imagens inline.

Passo 2: Escolher o User-Agent

Selecione o User-Agent para simular o crawl:

  • Googlebot smartphone (recomendado): simula o crawl mobile-first, aquele que o Google usa para a indexação principal
  • Googlebot desktop: útil para comparar a versão desktop se seu site serve um HTML diferente

Passo 3: Consultar os resultados

O relatório exibe:

  • Peso total: tamanho exato do HTML em bytes e em KB/MB
  • Barra de progresso: proporção visual em relação ao limite de 2 MB
  • Headers HTTP: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
  • Análise HTML: estrutura da página, número de tags, elementos detectados
  • Simulação de truncamento: se aplicável, visualize exatamente onde o Googlebot cortaria
  • Recomendações: ações concretas para reduzir o peso se necessário

O que é o limite de 2 MB do Googlebot?

O Google documenta um limite de tamanho para o crawl: o Googlebot pode baixar e indexar os primeiros 2.097.152 bytes (2 MB) do código-fonte HTML de uma página. Além disso, o conteúdo é truncado.

O que isso significa na prática:

SituaçãoImpacto SEO
HTML < 2 MBPágina indexada integralmente, sem problemas
HTML próximo de 2 MBRisco de truncamento nos elementos no final da página
HTML > 2 MBTruncamento certo: links, FAQ, conteúdo do rodapé perdidos

Atenção: esse limite se aplica ao HTML descomprimido. A compressão gzip/brotli não muda nada: um HTML de 3 MB comprimido em trânsito continuará sendo truncado a 2 MB após a descompressão.

Páginas em risco:

  • Páginas de e-commerce com centenas de produtos listados em HTML
  • Landing pages com SVG inline ou CSS embutido volumoso
  • Páginas com JSON-LD estruturado muito detalhado (ex: FAQ com mais de 50 perguntas)
  • Páginas geradas no servidor com JavaScript inline abundante

O que a ferramenta analisa exatamente?

Análise de tamanho

ElementoDescrição
Tamanho brutoPeso exato do HTML retornado pelo servidor, em bytes
Tamanho descomprimidoTamanho após decodificação gzip/brotli (o que conta para o Googlebot)
Proporção 2 MBPorcentagem do limite do Googlebot consumida

Headers HTTP

HeaderPor que é importante
Content-TypeConfirma que o servidor retorna HTML
Content-EncodingIndica se a compressão está ativa (gzip, br)
Content-LengthTamanho declarado pelo servidor (pode diferir do tamanho real)
X-Robots-TagDetecta um possível noindex/nofollow no nível HTTP
Cache-ControlConfiguração de cache que impacta a frequência de crawl

Análise HTML

ElementoO que a ferramenta verifica
Meta tagsPresença e conteúdo de title, description, robots
EstruturaHierarquia dos headings (H1-H6)
LinksNúmero de links internos e externos detectados

Casos de uso reais

Caso 1: Página de e-commerce com milhares de produtos

Sintoma: Sua página de categoria lista 500 produtos em HTML. O final da página (paginação, FAQ, links para subcategorias) não aparece nos resultados do Google.

Diagnóstico com a ferramenta: A página tem 3,2 MB de HTML. O Googlebot trunca em 2 MB, perdendo os 200 últimos produtos, a FAQ e todos os links de navegação do rodapé.

Ação: Migrar para paginação com carregamento dinâmico (lazy load), limitar a listagem inicial a 50 produtos, mover a FAQ para o topo da página.


Caso 2: Landing page com SVG inline massivo

Sintoma: Sua landing page carrega lentamente apesar de pouco conteúdo visível. A pontuação de Core Web Vitals está ruim.

Diagnóstico com a ferramenta: O HTML tem 1,8 MB, dos quais 1,2 MB são SVG inline (ilustrações vetoriais embutidas diretamente no HTML).

Ação: Extrair os SVGs para arquivos externos, usar tags img com os SVGs como fonte, ou converter para WebP. O HTML cai para 300 KB.


Caso 3: Migração com perda de compressão

Sintoma: Após uma migração de servidor, suas páginas carregam mais lentamente e o Google rastreia menos páginas.

Diagnóstico com a ferramenta: O header Content-Encoding está ausente. O servidor não comprime mais o HTML. A página de 800 KB em gzip agora tem 800 KB sem compressão em vez de 200 KB comprimidos.

Ação: Reativar a compressão gzip/brotli no novo servidor. Verificar a configuração do nginx/Apache.


FAQ - Perguntas frequentes

P: Qual é o peso médio de uma página web?

R: Em 2025, o peso mediano de uma página web é de aproximadamente 2,5 MB (todos os tipos de recursos incluídos). Porém, o HTML sozinho pesa geralmente entre 50 KB e 500 KB. É o tamanho do HTML que conta para o limite de crawl do Googlebot, não o peso total incluindo imagens, CSS e JavaScript.


P: Como saber o peso de uma página web?

R: Insira a URL no Page Size Checker acima. A ferramenta mede o tamanho exato do HTML retornado pelo servidor, analisa os headers HTTP e compara o resultado com o limite de 2 MB do Googlebot. Você também pode usar o DevTools do Chrome (aba Network), mas sem a análise de conformidade do Googlebot.


P: O que acontece quando uma página ultrapassa 2 MB?

R: O Googlebot trunca o HTML além de 2.097.152 bytes. Todo o conteúdo após esse ponto é ignorado para indexação. Na prática: links internos, FAQ estruturada, texto SEO no final da página não são mais considerados para o ranqueamento nos resultados de busca.


P: O que é o Crawl Budget?

R: O Crawl Budget é o número de páginas que o Googlebot pode rastrear no seu site em um período determinado. Páginas pesadas consomem mais recursos do servidor e da rede, reduzindo o número total de páginas rastreadas. Otimizar o peso das suas páginas permite ao Google descobrir e indexar mais conteúdo.


P: Como reduzir o peso de uma página web?

R: As ações mais eficazes:

  • Remover CSS/JS inline desnecessário → Mover para arquivos externos
  • Ativar a compressão → gzip ou brotli no servidor
  • Minificar o HTML → Remover espaços e comentários
  • Externalizar os SVGs → Substituir SVGs inline por tags img
  • Lazy loading → Carregar conteúdo volumoso sob demanda

P: Por que escolher Googlebot smartphone em vez de desktop?

R: O Google usa o mobile-first indexing desde 2019. É a versão smartphone da sua página que é indexada prioritariamente e usada para o ranqueamento. Teste com o User-Agent Googlebot smartphone para ver exatamente o que o Google indexa. O modo desktop é útil para comparar se seu site serve um HTML diferente de acordo com o dispositivo.


P: A compressão gzip conta no limite de 2 MB?

R: Não. O limite de 2 MB se aplica ao HTML descomprimido. Um HTML de 3 MB comprimido para 500 KB durante a transferência de rede será truncado a 2 MB assim que descomprimido pelo Googlebot. A compressão melhora a velocidade de transferência, mas não contorna o limite de tamanho.


Ferramentas complementares

FerramentaUtilidade
Pesquisa DNSVerificar os registros DNS do seu domínio
Verificador de propagação DNSConfirmar que suas alterações DNS estão propagadas globalmente
Auditoria de entregabilidade de emailAnalisar MX, SPF, DKIM e DMARC do seu domínio

Recursos úteis