¿Por qué verificar el peso de tus páginas web?
Si tu HTML supera los 2 MB, Googlebot lo trunca silenciosamente. Sin errores en Search Console, sin avisos: el contenido al final de la página simplemente desaparece del índice de Google. Tus enlaces internos, tu FAQ estructurada, tu texto SEO — invisibles para el motor de búsqueda.
Tres razones para verificar el peso de tus páginas:
- Evitar el truncamiento → Las páginas con HTML inline pesado (SVG, CSS, JSON-LD voluminoso) suelen superar el límite sin que lo sepas
- Optimizar el Crawl Budget → Páginas más ligeras = más páginas rastreadas por Google en el tiempo asignado
- Mejorar la velocidad → Un HTML ligero se carga más rápido, mejores Core Web Vitals, mejor posicionamiento
Cómo usar el verificador de peso de página en 3 pasos
Paso 1: Introducir la URL de la página
Introduce la URL completa de la página a analizar en el campo de arriba. La herramienta acepta cualquier URL pública accesible:
https://www.captaindns.com/es
Prueba primero tus páginas más largas: páginas de categorías, páginas de productos con muchas variantes, artículos de blog con muchas imágenes inline.
Paso 2: Elegir el User-Agent
Selecciona el User-Agent para simular el crawl:
- Googlebot smartphone (recomendado): simula el crawl mobile-first, el que Google utiliza para la indexación principal
- Googlebot desktop: útil para comparar la versión de escritorio si tu sitio sirve un HTML diferente
Paso 3: Consultar los resultados
El informe muestra:
- Peso total: tamaño exacto del HTML en bytes y en KB/MB
- Barra de progreso: ratio visual respecto al límite de 2 MB
- Headers HTTP: Content-Type, Content-Encoding, Cache-Control, X-Robots-Tag
- Análisis HTML: estructura de la página, número de etiquetas, elementos detectados
- Simulación de truncamiento: si aplica, visualiza exactamente dónde cortaría Googlebot
- Recomendaciones: acciones concretas para reducir el peso si es necesario
¿Qué es el límite de 2 MB de Googlebot?
Google documenta un límite de tamaño para el crawl: Googlebot puede descargar e indexar los primeros 2 097 152 bytes (2 MB) del código fuente HTML de una página. Más allá, el contenido se trunca.
Lo que esto significa en la práctica:
| Situación | Impacto SEO |
|---|---|
| HTML < 2 MB | Página indexada íntegramente, sin problemas |
| HTML próximo a 2 MB | Riesgo de truncamiento en los elementos al final de la página |
| HTML > 2 MB | Truncamiento seguro: enlaces, FAQ, contenido del pie de página perdidos |
Atención: este límite se aplica al HTML descomprimido. La compresión gzip/brotli no cambia nada: un HTML de 3 MB comprimido durante la transferencia será truncado igualmente a 2 MB tras la descompresión.
Páginas en riesgo:
- Páginas e-commerce con cientos de productos listados en HTML
- Landing pages con SVG inline o CSS embebido voluminoso
- Páginas con JSON-LD estructurado muy detallado (ej.: FAQ de más de 50 preguntas)
- Páginas generadas del lado del servidor con JavaScript inline abundante
¿Qué analiza exactamente la herramienta?
Análisis de tamaño
| Elemento | Descripción |
|---|---|
| Tamaño bruto | Peso exacto del HTML devuelto por el servidor, en bytes |
| Tamaño descomprimido | Tamaño tras decodificar gzip/brotli (el que cuenta para Googlebot) |
| Ratio 2 MB | Porcentaje del límite de Googlebot consumido |
Headers HTTP
| Header | Por qué es importante |
|---|---|
| Content-Type | Confirma que el servidor devuelve HTML |
| Content-Encoding | Indica si la compresión está activa (gzip, br) |
| Content-Length | Tamaño declarado por el servidor (puede diferir del tamaño real) |
| X-Robots-Tag | Detecta un posible noindex/nofollow a nivel HTTP |
| Cache-Control | Configuración de caché que afecta la frecuencia de crawl |
Análisis HTML
| Elemento | Lo que verifica la herramienta |
|---|---|
| Etiquetas meta | Presencia y contenido de title, description, robots |
| Estructura | Jerarquía de encabezados (H1-H6) |
| Enlaces | Número de enlaces internos y externos detectados |
Casos de uso reales
Caso 1: Página e-commerce con miles de productos
Síntoma: Tu página de categoría lista 500 productos en HTML. El final de la página (paginación, FAQ, enlaces a subcategorías) no aparece en los resultados de Google.
Diagnóstico con la herramienta: La página tiene 3,2 MB de HTML. Googlebot trunca a 2 MB, perdiendo los últimos 200 productos, la FAQ y todos los enlaces de navegación del pie de página.
Acción: Pasar a paginación con carga dinámica (lazy load), limitar el listado inicial a 50 productos, mover la FAQ al inicio de la página.
Caso 2: Landing page con SVG inline masivo
Síntoma: Tu landing page carga lentamente a pesar de tener poco contenido visible. La puntuación de Core Web Vitals es mala.
Diagnóstico con la herramienta: El HTML tiene 1,8 MB, de los cuales 1,2 MB son SVG inline (ilustraciones vectoriales embebidas directamente en el HTML).
Acción: Extraer los SVG a archivos externos, usar etiquetas img con los SVG como fuente, o convertirlos a WebP. El HTML baja a 300 KB.
Caso 3: Migración con pérdida de compresión
Síntoma: Tras una migración de servidor, tus páginas cargan más lento y Google rastrea menos páginas.
Diagnóstico con la herramienta: El header Content-Encoding está ausente. El servidor ya no comprime el HTML. La página de 800 KB con gzip ahora pesa 800 KB sin compresión, en lugar de 200 KB comprimidos.
Acción: Reactivar la compresión gzip/brotli en el nuevo servidor. Verificar la configuración de nginx/Apache.
FAQ - Preguntas frecuentes
P: ¿Cuál es el peso medio de una página web?
R: En 2025, el peso mediano de una página web es de unos 2,5 MB (con todos los tipos de recursos incluidos). Sin embargo, el HTML solo suele pesar entre 50 KB y 500 KB. Es el tamaño del HTML lo que importa para el límite de crawl de Googlebot, no el peso total con imágenes, CSS y JavaScript.
P: ¿Cómo saber el peso de una página web?
R: Introduce la URL en el verificador de arriba. La herramienta mide el tamaño exacto del HTML devuelto por el servidor, analiza los headers HTTP y compara el resultado con el límite de 2 MB de Googlebot. También puedes usar las DevTools de Chrome (pestaña Network), pero sin el análisis de conformidad con Googlebot.
P: ¿Qué pasa cuando una página supera los 2 MB?
R: Googlebot trunca el HTML a partir de los 2 097 152 bytes. Todo el contenido posterior se ignora para la indexación. En la práctica: enlaces internos, FAQ estructurada, texto SEO al final de la página ya no se tienen en cuenta para el posicionamiento en los resultados de búsqueda.
P: ¿Qué es el Crawl Budget?
R: El Crawl Budget es el número de páginas que Googlebot puede rastrear en tu sitio en un tiempo determinado. Las páginas pesadas consumen más recursos de servidor y red, reduciendo el número total de páginas rastreadas. Optimizar el peso de tus páginas permite a Google descubrir e indexar más contenido.
P: ¿Cómo reducir el peso de una página web?
R: Las acciones más eficaces:
- Eliminar CSS/JS inline innecesario → Mover a archivos externos
- Activar la compresión → gzip o brotli a nivel de servidor
- Minificar el HTML → Eliminar espacios y comentarios
- Externalizar los SVG → Reemplazar los SVG inline por etiquetas
img - Lazy loading → Cargar el contenido voluminoso bajo demanda
P: ¿Por qué elegir Googlebot smartphone en vez de desktop?
R: Google utiliza el mobile-first indexing desde 2019. La versión smartphone de tu página es la que se indexa prioritariamente y se usa para el posicionamiento. Prueba con el User-Agent Googlebot smartphone para ver exactamente lo que Google indexa. El modo desktop es útil para comparar si tu sitio sirve un HTML diferente según el dispositivo.
P: ¿La compresión gzip cuenta para el límite de 2 MB?
R: No. El límite de 2 MB se aplica al HTML descomprimido. Un HTML de 3 MB comprimido a 500 KB durante la transferencia será truncado igualmente a 2 MB una vez descomprimido por Googlebot. La compresión mejora la velocidad de transferencia, pero no evita el límite de tamaño.
Herramientas complementarias
| Herramienta | Utilidad |
|---|---|
| Búsqueda DNS | Verificar los registros DNS de tu dominio |
| Verificador de propagación DNS | Confirmar que tus cambios DNS se han propagado globalmente |
| Auditoría de entregabilidad email | Analizar MX, SPF, DKIM y DMARC de tu dominio |
Recursos útiles
- Google - Documentación sobre los límites de crawl (documentación oficial de Googlebot)
- Google - Mobile-first indexing (guía del mobile-first indexing)
- HTTP Archive - State of the Web (estadísticas sobre el peso de las páginas web)
- Web.dev - Optimize Largest Contentful Paint (optimización del rendimiento web)