Tras un último año en el cual el término crawl budget ha pasado a conformar parte del diccionario de todo SEO. Lo cual ha motivado artículos y conferencias, a partir del 2018 arrancó con el crawling como tendencia SEO.
Sin embargo, ¿por qué hemos pasado a darle tanta trascendencia a este campo del SEO? ¿Afecta realmente al posicionamiento en buscadores? Vamos a dar algo de luz sobre el crawling y su incidencia como variable para el ranking de posiciones en Google.
¿Qué es el crawling en SEO?
El crawling o rastreo de sitios web es el recorrido que realiza un bot de un buscador x (Crawler) para inspeccionar el contenido de su web. Desde el código hasta el texto, saltando de página en página por medio de los enlaces que va encontrando. En la situación del GoogleBot (el crawler de Google), este se ocupa de rastrear y revisar nuestras propias webs, para después incorporarlas a su índice.
Empero el crawling no es monopolio del todopoderoso buscador. Además de ser usado por sus participantes para objetivos semejantes. Además contamos con herramientas para hacer un rastreo de un cibersitio para la detección de errores o su mejora SEO.
¿Cómo hace Google el crawling de las webs?
En primera instancia, Google tendrá que conocer de la realidad de nuestra web y de su disponibilidad para que el crawler haga el proceso de rastreo e indexación de la misma. Para eso, contamos con diferentes posibilidades. Siendo las más usuales la construcción de un enlace externo hacia el website en cuestión o el alta en la plataforma Search Console, entre otras.
Después de cumplir el punto anterior, el Crawler que pertenece a Google inicia un rastreo de la web seleccionada. Visitando a cada una de las páginas del portar por medio de todos los enlaces que hayamos realizado a través de la web.. Además puede tomar de otras fuentes para hallar una página o parte de nuestra web. Como su vida en un documento Sitemap que hayamos dado de alta en Search Console.
El Crawl Budget y cómo perjudica al SEO
El crawler de Google no existe solamente para rastrear nuestra web. Dada la existencia de millones de portales en Internet, los recursos que puede designar el GoogleBot a un portal web son limitados. De aquí nace el término de Crawl Budget (presupuesto de rastreo en su traducción literal del inglés). La época y esfuerzo que dedicará el GoogleBot a intentar leer y examinar las páginas de un portal web.
Si el crawler de Google no es capaz de leer una página, éste no conocerá de su vida o contenidos y va a ser incapaz de incorporarla a su índice. Al no ser incorporada al índice, Google no la incorporará en los resultados de su buscador. Por ende, no podrás participar en el rankeo de posiciones.
Por ello, el crawling SEO que realizan los robots de los buscadores, es importante en el posicionamiento orgánico, dado que es el primer paso a cumplir, para que por ejemplo, Google llegue a nuestra web y todas las páginas que queremos sean vistas por el mundo, por lo cuál eso influirá en aparecer en su índice.
¿Y qué componentes tienen la posibilidad de dañar de manera negativa a nuestro Crawl Budget?
Todos esos inconvenientes del Crawling en SEO o restricciones que hagan gastar más tiempo y recursos al bot de Google, tales como:
- Un elevado tiempo de contestación del servidor
- Velocidad de carga de recursos desmesurados
- Presencia de errores de código 4xx o 5xx
- Páginas recluidas o de difícil ingreso
Además, hay otros componentes que determinarán el presupuesto de rastreo, como la autoridad de nuestro website.
¿Te ha gustado como te explicamos el Crawl Budget? Pues, quédate en contacto con nosotros para saber más.