lunes, 4 de mayo de 2015

¿Cómo los SEO detectan páginas penalizadas por Google?

De Adrián Coutin

A pesar de los esfuerzos por evitar las costosas penalizaciones de los sitios Web existe siempre un número determinado de Webs que, ya sea por un diseño defectuoso de las plataformas que lo soportan o por utilizar técnicas de SEO blackhat, son penalizadas por Google.

 

Herramientas para Webmaster de Google o Google Search Console


Como he comentado anteriormente Google quiere que sus índices estén lo más limpio posible de contenido spam, que encarece el procesamiento de los contenidos (webs) y afecta la calidad de los resultados de búsquedas.

Una característica muy frecuente en Web penalizadas por cualquiera de las versiones de Google Panda es la existencia de muchas páginas Web sin tráfico desde Google por estar excluídas del  índice principal de resultados.

Las Herramientas para Webmaster de Google ofrecen una ayuda importante, específicamente el Estado de Indexación con la cual podemos conocer el número total de páginas que googlebot ha encontrado en nuestra web. Ejemplo:


La cifra que muestra esta herramienta es el total de páginas que ha encontrado googlebot y que no están bloqueadas ya sea vía robots.txt o vía meta tags del HTML.

El total de estas páginas es la base para conocer el tamaño que para Google tiene nuestra página Web.

Analizando datos


Quizás pensamos que tenemos publicadas 200 páginas sin embargo Google nos reporta una cifra menor. Es muy probable que tengas bloquedado vía robots o a través del código HTML una parte de tus contenidos. Revísalo pero no es indicativo de penalización.

Se trata de un caso de una incorrecta gestión del fichero robots.txt o del gestor del contenido y sus opciones de bloquear contenido pero no de una penalización.

¿Dónde podemos relacionar esta información con la afectación de una penalización como Google Panda?

Si el total de tus páginas es inferior al total de páginas que muestra el Estado de Indexación con una diferencia de más de un 15% puedes tener algún problema.

Quizás no sea grave y no hayas detectado una caída significativa de tráfico desde Google pero debes preguntarte por qué y cuáles son esas páginas que tiene Google en sus índices y que tu no tienes controlada como publicadas por tu Web?

Si tienes una diferencia por encima del 20% puedes estar afectado severamente por Google Panda por contenido duplicado. Identifica qué contenido está encontrando Google que tu no estas publicando.

En ambas alternativas de penalización debes tener presente el uso de los bloqueos. vía robots.txt o código, de contenido duplicado e innecesario que googlebot los acceda. Otras alternativas deben ser aplicadas pero siempre conociendo el origen del problema.

No hay comentarios:

Publicar un comentario