Google Panda y Google Penguin, los animalitos que cambiaron las reglas del SEO

Google Panda y Google Penguin, los animalitos que cambiaron las reglas del SEO

Desde sus inicios, Google destacó del resto de sus competidores por la calidad de los resultados de las búsquedas y la sencillez de su página. En aquella época, las páginas de los buscadores eran una mezcla de directorio y buscador. La calidad de los resultados que ofrecía Google respecto a sus competidores provocó, que en muy poco tiempo, éste se convirtiera en el buscador preferido de la mayoría de nosotros, y porque no decirlo, la página de inicio de nuestro navegadores.

En sus inicios, engañar a Google para que nos mostrara en los primeros resultados era relativamente sencillo. Esto se debía a que principalmente Google ofrecía en los resultados, las páginas que más veces repetían en el contenido la palabra clave objetivo, y del número de enlaces que recibían.

Para defenderse de este tipo de acciones por parte de los desarrolladores y SEOs, Google creó una serie de algoritmos de apoyo. Estos algoritmos, o filtros,  se encargaron de “limpiar” de los resultados de búsqueda las páginas que trataban de engañarle, con el fin de ofrecer a los usuarios los mejores resultados. Y con ello el mejor contenido.  Porque no se nos tiene que olvidar, que para Google, su negocio está en los usuarios que usan a diario el buscador, y para ello, la calidad de los resultados debe muy alta.

Google Panda y el contenido de calidadgoogle panda

Panda es un algoritmo que provocó muchos dolores de cabeza, y que marcó el inicio de una etapa nueva en el mundo del SEO o posicionamiento en Google. Este algoritmo se encarga de analizar la calidad del contenido. Como hemos comentado antes, crear contenido sobre optimizado donde la palabra clave objetivo se repetía miles de veces o utilizar contenidos de otras web para utilizar en contenidos propios, eran técnicas que estaban a la orden del día. Y con la aparición del algoritmo Google Panda desaparecieron del mapa de las SERP algunos cientos de miles de páginas.

Google publicó este algoritmo en el año 2011 y sus efectos fueron inmediatos. Se calcula que desaparecieron de los resultados de búsqueda un 15% de páginas. Esto trajo de cabeza a muchos SEOs, y en la gran mayoría de los casos era más rentable “tirar a la basura” las páginas web penalizadas y comenzar un nuevo proyecto, que tratar de corregir los contenidos.

Como hemos mencionado, el objetivo de Google era (y sigue siendo) el de ofrecer contenido de calidad a los usuario. Contenido original y que aporte valor. El contenido tiene que ser de utilidad.

Para poder medir la calidad del contenido  y que cumpla con las reglas SEO, Google, además de analizar si el contenido está copiado de otras páginas (contenido duplicado), se basa en otros factores para medir el interés del usuario por el contenido ofrecido:

  • Tasa de rebote: es el porcentaje de sesiones (visitas de un usuario) que entran un una página de tu web y se marchan sin ver más páginas. Es decir, no interactuan.
  • CTR: es el porcentaje de las veces que ha aparecido alguna URL de tu página web en los resultados de búsqueda y el número de usuarios que ha hecho clic y entrado a ver tu contenido
  • Permanencia y páginas vistas: estos datos indican el tiempo que han estado los usuarios en tu web y el número de páginas visitadas

Con estos datos, Google de algún modo, interpreta la calidad de los contenidos de tu web. Para ello se fija en que tu contenido no está copiado, que el usuario cuando muestra tu página en los resultados de búsqueda hace clic y entra a verlo, y además se queda en tu sitio porque encuentra interesante tu propuesta. En definitiva, que puedes ser un referente ante una determina consulta o búsqueda realizada.

Google Penguin, el algoritmo que evita el webspam

google penguinGoogle Penguin se publicó en Abril de 2012 y se llevó (y se sigue llevando) por delante a todas las páginas web que recibían enlaces desde sitios de baja calidad, pero sobre todo, a las web que posicionaban con técnicas de webspam.

En los comienzos de la era Internet y en plena batalla por dar con el mejor buscador, Google acertó en la diana a la hora de tener en cuenta los enlaces que recibía una web para considerarla relevante y de este modo posicionarla en sus resultados de búsqueda.  Google llegó a la conclusión, de que las páginas que recibían muchos enlaces desde otras páginas, eran muy populares. Interpretando de este modo a cada enlace como si fuera una mención. De este modo, cuantas más menciones recibía una web más influyente era.

Pero claro, esto trajo consigo la creación de las famosas granjas de enlaces y la creación de enlaces desde cualquier página web que nos brindara la oportunidad de poder colocar uno.

Así que Google se puso las pilas y tomó la decisión de analizar el enlazado de todas las páginas web y penalizar de este modo a todas aquellas que nos cumplen con sus directrices:

 

  • Calidad antes que cantidad: es preferible tener pocos enlaces y que sean de dominios de autoridad, a tener muchos y desde cualquier dominio
  • Enlazado desde páginas de tu nicho de mercado: son los enlaces ideales, que otros sitios web de tu sector te mencionen y además te pongan un enlace
  • No abusar del anchor text: el anchor text es el texto donde está el enlace. Los robots de Google siguen a los enlaces para llegar a otra página, y para ello relacionan el texto del enlace con el contenido de la página destino. Combina tus enlaces con palabras semánticamente relacionadas, la url de destino y también con el nombre de tu marca o empresa
  • Enlaces naturales: es decir, que te enlacen de forma voluntaria por la calidad de tu contenido.

¿Qué han significado los algoritmos Panda y Penguin para el SEO?

Estos dos algoritmos han sido parte de la solución de Google en todo lo referente a ofrecer resultados de calidad a los usuarios. Hoy en día, el que quiera aparecer en los resultados de búsqueda para términos relacionados con sus productos o servicios, deberá tener en cuenta que el usuario es lo primero. Han desaparecido muchas de las técnicas de optimización SEO que se utilizaban para tratar de engañarle.  Y con ello, porque no decirlo también, la profesionalización de la figura del profesional SEO.

Panda y Penguin no son los dos únicos algoritmos que Google tiene como herramientas de apoyo para su algoritmo núcleo. El buscador también se apoya en una serie de algoritmos que se encargan de ofrecer un mejor resultado según la geolocalización del usuario, algoritmos que le dan apoyo a la búsqueda semántica o algoritmos como RankBrain que trabaja para ofrecer buenos resultados para las búsquedas por voz

Google trabaja incansablemente actualizando sus algoritmos para poder ofrecer la mejor experiencia de usuario posible,  lo hemos podido comprobar este año con las actualizaciones de su algoritmo núcleo.

Ahora nos toca a los profesionales del SEO,  estar al tanto de los nuevos cambios  y actualizaciones que hace Google, para de este modo poder ofrecer el mejor servicio a nuestros clientes.

Google Panda y Google Penguin, los animalitos que cambiaron las reglas del SEO
5 (100%) 3 votes
Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

div#stuning-header .dfd-stuning-header-bg-container {background-color: #d8d8d8;background-size: initial;background-position: top center;background-attachment: initial;background-repeat: initial;}#stuning-header div.page-title-inner {min-height: 100px;}

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies