Qué es Panda Update

¿Es un cambio de algoritmo o es sólo un nuevo factor, o ambas cosas? Para responder, hay que entender cómo funciona un buscador. Analiza la consulta, convierte la palabra en wordIds, va al doclist al contenedor de cada palabra, recupera el documento que coincide con la búsqueda. Pero realmente no es tan sencillo: índices comprimidos, índices inversos, lexicon…

¿Dónde está Panda? La estructura de un buscador es básicamente la misma. No sabemos exactamente dónde. Puede ser un cambio del indexer y del algoritmo. Estudiamos lo que ha hecho Google, las patentes… y creemos que o son ambos o sólo en el indexer, pero no sólo en el algoritmo. El factor de Panda funciona por URL y por dominio.

¿Qué hace Panda? Se utilizan procesamientos paralelos para reconocer patrones y tienen capacidad para aprender y mejorar su funcionamiento. Este algoritmo se retroalimenta, puede almacenar patrones de forma incompleta o con ruido… Puede aprender a detectar diferencias o similitudes entre parejas de datos y aprende ciertas informaciones de forma que puede reconstruir información de entrada incompleta o distorsionada. Por eso detecta contenido spineado.

La clave es la detección de patrones en el contenido, en el site, en el código… Webtracer es un crawler para visualizar estructuras de sitio Web. Con ello podemos ver estructuras principales de la Web y ver si hay duplicidades…

El desarrollo de Panda comenzó en 2009. Estos algoritmos ya funcionaban pero necesitaban mucha potencia de cálculo y cuando Google lanzó Caffeine mejoró en software y hardware, que mejoró la capacidad de indexación y de análisis. Un nuevo sistema de indexación.

Mayday tumbó bastantes scrapers y sitios spammers. Caffeine es una mejora de hard y software para mejorar el indexer. También fue una mejora de infraestructura para hacer que los datacenters trabajaran en paralelo.

Panda es un nuevo algoritmo que trabaja en el indexer. Muchos de los casos que creyeron estar afectados por Panda no lo estaban. En ocasiones eran temas de estacionalidad, y también hubo un cambio en Analytics que distorsionó el efecto de Panda, fue a finales de agosto.

Para saber si te ha afectado debes mirar usuarios únicos y caídas de más del 15% que no coincidan con caidas estacionales. Panda afecta a URLs, así que debería afectar a todas las URLs similares. Si el porcentaje de páginas afectadas es alto, todo el sitio se verá afectado.

En las posiciones, el Panda debe afectar a la media de posiciones del total de palabras clave de un sitio. Si hay un cambio aquí, significa un cambio en Google.

Las variaciones de posicionaes para palabras clave con las herramientas habituales no aclaraban nada. Solución: capturar el parámetro cd= del referrer con un nuevo perfil al que se aplican los dos filtros (capturar parámetro cd en Analytics).

Panda castiga contenido superficial, mal escrito, copiado de otros sitios, spineado, imágenes y vídeo, anuncios y publicidad también han generado problemas, patrones de navegación y estructuras recurrentes, backlinks y secuencias de tiempo. ¿Lo castiga todo?

Panda afecta a patrones de URLs de acuerdo con patrones pregenerados. Si afecta a una URL, afectará a todas las homólogas.

Panda funciona con umbral absoluto: si afecta a una url, baja para posiciones en todas las búsquedas. Umbral diferente para cada dominio definido por tamaño y estructura del site. Por último, backlinks por variedad y calidad.

Afectación básica: secciones o grupos. Severa: todo menos la home. Máxima: dominio baneado.

¿Se puede salir del Panda? No es penalización. Es una especie de filtro que lleva tu página a un contenedor de menor valor. ¿Se puede salir a corto plazo? Sí se puede en menos de 35 días y el problema es coste/beneficio: tendrás que sacrificar parte de tu sitio por lo que tendrás que ver si el resultado seguiría siendo rentable.

¿Cómo? Si te afecta Panda, algo tienes mal. Encuéntralo. Elimina el mal, con un coste moderado (noindex, 404) mejorar las páginas o redirecciona 301 o canonical. También puedes modificar el umbral con un coste alto: mejorar y aportar nuevo contenido en la sección afectada y mejorar el perfil de backlinks para que baje la proporción de contenido y enlaces chungos.

Muestra ejemplos de otros sitios Web afectados por Panda.

Solución fácil: llevártelo a un dominio o subdominio con 301 y dejar en tu dominio principal sólo el contenido de calidad. Se recupera el posicionamiento anterior. Y si no funciona nada de esto, cierra el negocio.

Ejemplos de recuperación a través de: linksculpting de paginados, desindexación de paginados, sacar fichas por marca a subdominio, eliminar contenido recurrente; eliminar volumen alto de tags (mejor tesauros) desindexación de páginas vacías, aligerar el template (ratio código texto), desindexación de páginas cuyo contenido se encuentra en otra página, mejoras de diseño y contenido, mejoras del interlinking interno, control de calidad, corrección de errores, ortográfico, etc. Se va a hacer sacar estructura de baja calidad a subdominios.

Tags a subdominios, desindexar paginados, meta noindex a temporales, reducir tamaño de códio, versiones del theme y sidebar distintos para cada tipo de página. Unificamos páginas de contenido similar y repetitivo cada trimestre/año. Y 301 de ellas a la página que acumula todo el contenido.

Carlos comenta que hay un Panda por país con patrones distintos.

¿Se puede explotar Panda? Sí, Panda penaliza el contenido para un dominio. Pero ese contenido no está penalizado para el resto. Hay que seleccionar una lsita de sites pandalizados, scrapéalos y publica su estructura de subdominios. Te dura tres meses.

¿Y en el futuro? Pocos cambios del algoritmo general. Panda seguirá evolucionando, las señales actuales se mejorarán y se añadirán otras. Explosión del foco local y de nicho y el SEO cada vez más difícil: se elevan las barreras de entrada. Gracias a Panda, se podrán definir importancia de los factures según la query. Freshness update: que selecciona el contenido más fresco… análisis de sentimiento en redes sociales…

Y Penguin.
¿Cambio de algoritmo, nuevo algoritmo, filtro…? Es una detección de Spam: title spamming, body spamming, meta tags spamming, anchor text spamming, URL spamming… ¿Y el trustrank está relacionado? Autoridad de un dominio a partir de la distancia del mismo en clicks de los sitios semilla. ¿Por qué no hago trustrank con más cosas? Puedo hacerlo con titles, anchor, hosts…

Se crea un algoritmo que puede ir aprendiendo e ir siendo refinado por revisores humanos.

Penguin es el mismo algoritmo pero uso datos distintos: meto backlinks, hosts, topics de páginas de origen de enlaces, hosts… Funcionan como dos algoritmos separados que en el futuro se retroalimenten.

¿Y en la realidad?
Primero, estar seguro si fui afectado. Mensajes de unnatural links no implica estar afectado. Fueron muchísimos los enviados. Comprueba las fechas de los updates y mira los datos de usuarios únicos. Monitoriza tus keywords para grandes cambios de posiciones y analiza tus backlinks. Si el número de enlaces que incluyen la palabra clave principal respecto al total de enlaces más de un 65% cuidado, peligro.
El tráfico de las keyword usadas como anchor baja considerablemente, aunque puede afectar a otras por la bajada de autoridad global del dominio. Todos los sitios afectados tenían más de un 65% de densidad de anchor, aunque no significa que tener más te tenga necesariamente que afectar. Usaban la keyword en title y URL de landing pages. Menos de un 10% de enlaces relevantes (potentes y enfocados en la temática coincidente).
Caídas en tráfico de entre un 15 y un 90% y caída importantes de posiciones.
Ejemplo de clasificados con caída del 70% y estrategias de recuperación quitando enlaces de mala calidad con Keyword principal.

Ejemplo de e-commerce en donde no se ha conseguido recuperar la caída del 40% del tráfico tras Penguin.

¿Qué hacer? Recopila datos y sigue generando enlaces al mismo ritmo, e incrementa un poco y con mayor calidad. Usa anchors naturales no optimizados. Consigue al menos que un 10% de enlaces a tu sitio sean de sitios relevantes. Elimina enlaces en páginas de baja calidad. Edita las páginas más importantes: contenido, titles, etc. Genera perfil de backlinks efectivo y no utilices más de un 20% de hosts redundantes. Y estudia a tu competencia: quiénes están ahí y dónde están sus enlaces.

Y Google no está contento. GWT es el dato más fiables de enlaces entrantes y usamos otras herramientas para el anchor text.
AnchorDensity. aHrefs.com. LinkDetective. http://bit.ly/LAcNAP

¿Qué no hacer?: No te vuelvas loco eliminando enlaces. No uses generadores masivos de enlaces. No cambies anchor links. No cambies máquina. No uses los reports de Google porque un rater te puede castigar más aún.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s