Errores en el robots.txt y en el posicionamiento

Google es tan solo un robot que se encarga de analizar las diferentes webs con el objetivo de ofrecerles una posición en su buscador. Cada vez es más inteligente porque está dotado de toda una serie de algoritmos los cuales se encargan de medir la calidad en base a una serie de factores. El problema es que no muchas personas tienen idea de lo que realmente es el SEO y cómo funciona este. Algunas de ellas no son capaces de rankear debido a que están cometiendo pequeños errores pero determinantes a la hora de subir posiciones. En este artículo queremos hacer referencia al archivo robots.txt que no es más que un documento que el buscador Google analizará antes de entrar o no a nuestra web. A continuación vamos a analizar como el más mínimo fallo en este documento es capaz de cargarse años y años de planificación en nuestra estrategia de posicionamiento SEO.

El verdadero poder del archivo robots.txt

Por poner un ejemplo, muchos webmaster suelen crearse un dominio secundario o un su dominio dentro del propio dominio (por poner un ejemplo: dominio2.sitioweb.com). Esto, en un primer momento, parece una gran idea ya que así evitaremos que haya contenido duplicado. Básicamente la idea es poder crear una web “de prueba” donde vamos a empezar a trabajar de cara a que la web principal pueda estar lista en algún momento. Es decir, aquí se van a experimentar con todos los textos que haga falta, con los plugins, los diferentes estilos que pueden llegar a quedar mejor… Sin embargo, no va ser la URL definitiva; la idea es que, una vez que hayamos terminado, lo que haremos será pasado todo el sitio principal. Por esta razón, como no queremos que se indexe el sitio secundario, lo bloqueamos utilizando el archivo que hemos comentado anteriormente.

Y aquí viene el error…

El problema suele venir en que los plazos de creación de una web nunca se suelen cumplir. Puede que se hubiera planeado para una fecha en concreto pero luego, a la hora de la verdad, el tema se atrase mucho más. Con todas estas prisas y el estrés encima, es posible que la persona que se pueda estar encargando de crear la página web cometa un error muy grave. Si ya tienes un poco de conocimientos sobre creación de webs, sabrás que si duplicamos ciertos elementos podemos ahorrar bastante tiempo. Por esta razón, la persona que está encargada de la creación de la web no se va a complicar demasiado la vida iba a proceder a duplicar la web del dominio secundario principal. ¿Dónde está el problema? Que seguramente hará lo mismo con el archivo robots. Tienes que saber que mientras ese archivo siga ahí, será imposible que los rastreadores de Google puedan llegar a indexarlo con las consecuencias que ya te puedes imaginar. Es posible que esa web esté cumpliendo con todos los criterios que se espera de ella para poder posicionarse. Sin embargo, debido a ese error, jamás conseguirá el resultado deseado.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *