Ir al contenido principal

Verificador de peso de página web

Comprueba si tu página supera el límite de 2 MB de Googlebot

¿Tu página es demasiado pesada para Google? Mide el peso real de tu HTML, analiza los headers HTTP y simula lo que Googlebot ve tras el truncamiento. Page Size Checker gratuito, resultados en segundos.

Análisis de peso en tiempo real

Mide el peso exacto de tu página en bytes. Visualiza el ratio respecto al límite de 2 MB con una barra de progreso clara.

Detección del límite de Googlebot

Identifica de inmediato si tu página supera los 2 097 152 bytes que Googlebot puede indexar. Anticípate al truncamiento antes de que afecte a tu SEO.

Análisis de headers HTTP

Inspecciona los headers de respuesta: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag. Detecta las configuraciones que bloquean o ralentizan el crawl.

Simulación de truncamiento

Visualiza exactamente qué elementos HTML se perderían si Googlebot trunca tu página. Identifica los enlaces internos, FAQ y contenidos SEO en riesgo.

Recomendaciones accionables

Cada problema detectado incluye una recomendación concreta: reducir el peso, optimizar imágenes inline, mover los scripts, comprimir el HTML.

¿Por qué verificar el peso de tus páginas web?

Si tu HTML supera los 2 MB, Googlebot lo trunca silenciosamente. Sin errores en Search Console, sin avisos: el contenido al final de la página simplemente desaparece del índice de Google. Tus enlaces internos, tu FAQ estructurada, tu texto SEO — invisibles para el motor de búsqueda.

Tres razones para verificar el peso de tus páginas:

  • Evitar el truncamiento → Las páginas con HTML inline pesado (SVG, CSS, JSON-LD voluminoso) suelen superar el límite sin que lo sepas
  • Optimizar el Crawl Budget → Páginas más ligeras = más páginas rastreadas por Google en el tiempo asignado
  • Mejorar la velocidad → Un HTML ligero se carga más rápido, mejores Core Web Vitals, mejor posicionamiento

Cómo usar el verificador de peso de página en 3 pasos

Paso 1: Introducir la URL de la página

Introduce la URL completa de la página a analizar en el campo de arriba. La herramienta acepta cualquier URL pública accesible:

https://www.captaindns.com/es

Prueba primero tus páginas más largas: páginas de categorías, páginas de productos con muchas variantes, artículos de blog con muchas imágenes inline.

Paso 2: Elegir el User-Agent

Selecciona el User-Agent para simular el crawl:

  • Googlebot smartphone (recomendado): simula el crawl mobile-first, el que Google utiliza para la indexación principal
  • Googlebot desktop: útil para comparar la versión de escritorio si tu sitio sirve un HTML diferente

Paso 3: Consultar los resultados

El informe muestra:

  • Peso total: tamaño exacto del HTML en bytes y en KB/MB
  • Barra de progreso: ratio visual respecto al límite de 2 MB
  • Headers HTTP: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
  • Análisis HTML: estructura de la página, número de etiquetas, elementos detectados
  • Simulación de truncamiento: si aplica, visualiza exactamente dónde cortaría Googlebot
  • Recomendaciones: acciones concretas para reducir el peso si es necesario

¿Qué es el límite de 2 MB de Googlebot?

Google documenta un límite de tamaño para el crawl: Googlebot puede descargar e indexar los primeros 2 097 152 bytes (2 MB) del código fuente HTML de una página. Más allá, el contenido se trunca.

Lo que esto significa en la práctica:

SituaciónImpacto SEO
HTML < 2 MBPágina indexada íntegramente, sin problemas
HTML próximo a 2 MBRiesgo de truncamiento en los elementos al final de la página
HTML > 2 MBTruncamiento seguro: enlaces, FAQ, contenido del pie de página perdidos

Atención: este límite se aplica al HTML descomprimido. La compresión gzip/brotli no cambia nada: un HTML de 3 MB comprimido durante la transferencia será truncado igualmente a 2 MB tras la descompresión.

Páginas en riesgo:

  • Páginas e-commerce con cientos de productos listados en HTML
  • Landing pages con SVG inline o CSS embebido voluminoso
  • Páginas con JSON-LD estructurado muy detallado (ej.: FAQ de más de 50 preguntas)
  • Páginas generadas del lado del servidor con JavaScript inline abundante

¿Qué analiza exactamente la herramienta?

Análisis de tamaño

ElementoDescripción
Tamaño brutoPeso exacto del HTML devuelto por el servidor, en bytes
Tamaño descomprimidoTamaño tras decodificar gzip/brotli (el que cuenta para Googlebot)
Ratio 2 MBPorcentaje del límite de Googlebot consumido

Headers HTTP

HeaderPor qué es importante
Content-TypeConfirma que el servidor devuelve HTML
Content-EncodingIndica si la compresión está activa (gzip, br)
Content-LengthTamaño declarado por el servidor (puede diferir del tamaño real)
X-Robots-TagDetecta un posible noindex/nofollow a nivel HTTP
Cache-ControlConfiguración de caché que afecta la frecuencia de crawl

Análisis HTML

ElementoLo que verifica la herramienta
Etiquetas metaPresencia y contenido de title, description, robots
EstructuraJerarquía de encabezados (H1-H6)
EnlacesNúmero de enlaces internos y externos detectados

Casos de uso reales

Caso 1: Página e-commerce con miles de productos

Síntoma: Tu página de categoría lista 500 productos en HTML. El final de la página (paginación, FAQ, enlaces a subcategorías) no aparece en los resultados de Google.

Diagnóstico con la herramienta: La página tiene 3,2 MB de HTML. Googlebot trunca a 2 MB, perdiendo los últimos 200 productos, la FAQ y todos los enlaces de navegación del pie de página.

Acción: Pasar a paginación con carga dinámica (lazy load), limitar el listado inicial a 50 productos, mover la FAQ al inicio de la página.


Caso 2: Landing page con SVG inline masivo

Síntoma: Tu landing page carga lentamente a pesar de tener poco contenido visible. La puntuación de Core Web Vitals es mala.

Diagnóstico con la herramienta: El HTML tiene 1,8 MB, de los cuales 1,2 MB son SVG inline (ilustraciones vectoriales embebidas directamente en el HTML).

Acción: Extraer los SVG a archivos externos, usar etiquetas img con los SVG como fuente, o convertirlos a WebP. El HTML baja a 300 KB.


Caso 3: Migración con pérdida de compresión

Síntoma: Tras una migración de servidor, tus páginas cargan más lento y Google rastrea menos páginas.

Diagnóstico con la herramienta: El header Content-Encoding está ausente. El servidor ya no comprime el HTML. La página de 800 KB con gzip ahora pesa 800 KB sin compresión, en lugar de 200 KB comprimidos.

Acción: Reactivar la compresión gzip/brotli en el nuevo servidor. Verificar la configuración de nginx/Apache.


FAQ - Preguntas frecuentes

P: ¿Cuál es el peso medio de una página web?

R: En 2025, el peso mediano de una página web es de unos 2,5 MB (con todos los tipos de recursos incluidos). Sin embargo, el HTML solo suele pesar entre 50 KB y 500 KB. Es el tamaño del HTML lo que importa para el límite de crawl de Googlebot, no el peso total con imágenes, CSS y JavaScript.


P: ¿Cómo saber el peso de una página web?

R: Introduce la URL en el verificador de arriba. La herramienta mide el tamaño exacto del HTML devuelto por el servidor, analiza los headers HTTP y compara el resultado con el límite de 2 MB de Googlebot. También puedes usar las DevTools de Chrome (pestaña Network), pero sin el análisis de conformidad con Googlebot.


P: ¿Qué pasa cuando una página supera los 2 MB?

R: Googlebot trunca el HTML a partir de los 2 097 152 bytes. Todo el contenido posterior se ignora para la indexación. En la práctica: enlaces internos, FAQ estructurada, texto SEO al final de la página ya no se tienen en cuenta para el posicionamiento en los resultados de búsqueda.


P: ¿Qué es el Crawl Budget?

R: El Crawl Budget es el número de páginas que Googlebot puede rastrear en tu sitio en un tiempo determinado. Las páginas pesadas consumen más recursos de servidor y red, reduciendo el número total de páginas rastreadas. Optimizar el peso de tus páginas permite a Google descubrir e indexar más contenido.


P: ¿Cómo reducir el peso de una página web?

R: Las acciones más eficaces:

  • Eliminar CSS/JS inline innecesario → Mover a archivos externos
  • Activar la compresión → gzip o brotli a nivel de servidor
  • Minificar el HTML → Eliminar espacios y comentarios
  • Externalizar los SVG → Reemplazar los SVG inline por etiquetas img
  • Lazy loading → Cargar el contenido voluminoso bajo demanda

P: ¿Por qué elegir Googlebot smartphone en vez de desktop?

R: Google utiliza el mobile-first indexing desde 2019. La versión smartphone de tu página es la que se indexa prioritariamente y se usa para el posicionamiento. Prueba con el User-Agent Googlebot smartphone para ver exactamente lo que Google indexa. El modo desktop es útil para comparar si tu sitio sirve un HTML diferente según el dispositivo.


P: ¿La compresión gzip cuenta para el límite de 2 MB?

R: No. El límite de 2 MB se aplica al HTML descomprimido. Un HTML de 3 MB comprimido a 500 KB durante la transferencia será truncado igualmente a 2 MB una vez descomprimido por Googlebot. La compresión mejora la velocidad de transferencia, pero no evita el límite de tamaño.


Herramientas complementarias

HerramientaUtilidad
Búsqueda DNSVerificar los registros DNS de tu dominio
Verificador de propagación DNSConfirmar que tus cambios DNS se han propagado globalmente
Auditoría de entregabilidad emailAnalizar MX, SPF, DKIM y DMARC de tu dominio

Recursos útiles