¿Cuáles son los algoritmos de Google?
Hay muchos algoritmos en Google, estos ayudan a generar los mejores resultados para nuestras intenciones de búsqueda.
Por lo tanto podemos decir que: un algoritmo es el conjunto de instrucciones mediante las cuales Google evalúa una URL, para posicionarla en el buscador según la intención de búsqueda del usuario.
¿Cada cuánto hacen modificaciones en el algoritmo de Google?
Cada día se hacen modificaciones en el core del buscador para mejorar los resultados de búsqueda. Solo se notifican con tiempo las actualizaciones importantes, las cuales suponen un cambio notable que los desarrolladores webs deben saber. De esta manera los webmasters pueden hacer las modificaciones necesarias para mantener las directrices de calidad de Google.
Las actualizaciones importantes suelen hacerse en Agosto, aunque a lo largo del año también suele haber alguna que otra. Estas “actualizaciones principales” se hacen para ofrecer siempre los mejores resultados de búsqueda en Google.
¿Cuáles son los principales Algoritmos de Google?
Los algoritmos más conocidos son Panda, Penguin, Humminbirg y Pigeon, aunque nombraremos algunos más y detallaremos los más relevantes:
Hilltop (2003)
Este algoritmo identifica la autoridad de una página web en internet.
Para identificar a una web con gran autoridad se centraron en páginas específicas, páginas hechas por expertos en un sector en concreto. Un ejemplo podría ser una página web dedicada al motor, donde hablen expertos del tema. Además esta web tendría que tener muchos enlaces externos, de ahí la necesidad de tener un buen Linkbuilding a día de hoy.
A raíz de aquí surgieron las granjas de enlaces y, es por eso que una web con muchos enlaces podía ganar mucho autoridad y posicionarse rápidamente.
✔️ Posiciona por contenido especializado
✔️ Posiciona por enlaces externos
Google Panda (2011)
Panda es uno de los algoritmos de Google más conocidos y que considero más importantes, ya que este se centra principalmente en el contenido de calidad.
Para ganar posiciones en la SERP según las instrucciones de Panda, nos tendremos que centrar en ofrecer contenidos útiles y de calidad para los usuarios.
Por lo contrario, todas aquellas webs que tengan un contenido de baja calidad (Thin content) serán penalizadas. Se considera contenido de baja calidad a contenido duplicado, demasiado corto, de poco valor, etc.
✔️ Posiciona por contenido de calidad
✔️ Posiciona por contenido Original
✔️ Posiciona por contenido actualizado
❌ Penaliza contenido duplicado
❌ Penaliza contenido copiado
❌ Penaliza cuando hay mucha publicidad
Top Heavy (2012)
Este algoritmo penaliza aquellas webs donde solo hay contenido publicitario. Eliminando de la SERP los sitios web donde solo prevalece contenido publicitario).
Google Penguin (2012)
Anteriormente hemos hablado del Hilltop, el algoritmo anterior premiaba todas aquellas webs con muchos enlaces, para evitar los usos fraudulentos que se hacían posicionando URL’s mediante enlaces malos nació Google Penguin, este apareció en el año 2012 penalizando a todas aquellas páginas web que estuvieran basadas en enlaces de mala calidad.
Desde entonces hay que generar enlaces de forma natural, se tendrá en cuenta la calidad de ellos antes que la cantidad.
En resumen, lo ideal para ser premiado por este algoritmo es tener enlaces de calidad, y si puede ser de páginas webs del mismo nicho o temática.
✔️ Posiciona por enlaces de calidad
✔️ Posiciona por enlaces de una misma temática
✔️ Posiciona por enlaces naturales
❌ Penaliza por enlaces de mala calidad
❌ Penaliza por Granjas de enlaces
Google Pirate (2012)
Google Pirate es un algoritmo que penaliza a todos aquellos sitios que han sido reclamados por titulares de derechos (DigitalMillennium Copyright Act), como podrían ser contenidos de imágenes, TV, música, películas, libros,
Google Hummingbird (2013)
Hummingbird fue creado para analizar la búsqueda semántica y el knowledge graph.
Este algoritmo era totalmente nuevo, y no una actualización como las otras, es por eso que supuso un gran cambio. Su lanzamiento afectó a nada más ni nada menos que el 90% de las búsquedas de todo el mundo.
La intención de Hummingbird (Colibrí) es mejorar la búsqueda conversacional, de esta manera la búsqueda en Google y los resultados serán más naturales y simples para el usuario.
No buscaremos “pájaros comida”, más bien se busca una comunicación entre Google y el usuario, siendo así: “comprar comida para pájaros”.
⭐️ Pensado para las búsquedas por voz
⭐️Detecta el “sentido real” de la búsqueda en la SERP
⭐️Da inicio a la web semántica
⭐️Ofrece resultados más relevantes para los usuarios
Payday (2013)
El algoritmo Payday Loan surgió el 11 de Junio de 2013. Este tenía la función de sancionar a todas aquellas URLs que tenían un alto tráfico que podía ser fraudulento.
La intención era penalizar las páginas webs que utilizan el SPAM para ganar más tráfico. Como todo algoritmo no es perfecto y fueron sancionadas paginas como farmacias, casinos o la web de la agencia tributaria en el día de la declaración de la renta.
Pigeon (2014)
Este algoritmo favorece a todas aquellas búsquedas locales para ser posicionadas en la SERP. En la actualidad hay empresas o webs muy grandes con las que sería muy difícil competir.
Un ejemplo podría seria buscar una peluquería. Cuando el usuario busca una peluquería, probablemente esté buscando una peluquería local para poder llamar y marcar hora. Sin la aparición de este algoritmo, aparecerían las grandes peluquerías internacionales antes que la peluquería local. Es por eso que Pigeon ayuda a mostrar los resultados de búsqueda local. Google siempre intenta darnos el mejor resultado posible según nuestra intención de búsqueda, y con este algoritmo se ajusta un poco más.
MFU Mobile Friendly Update (2015)
Mobile Friendly Update lanzado en Abril del 2015. La intención de este algoritmo es mejorar los resultados de búsqueda en dispositivos móviles. En Julio del 2019 hubo una importante actualización, en la que se anunciaba MOBILE FIRST INDEXING por defecto.
Esta última actualización anunciaba que el motor de búsqueda solo tendría en cuenta el contenido compatible con los dispositivos móviles para posicionar una web.
Aquí puedes comprobar la compatibilidad de tu sitio web con Smartphone.
Possum (2016)
Possum, al igual que Pigeon, es una actualización sobre los resultados de búsqueda locales. Este, en concreto, afecta en especial a los resultados de búsqueda obtenidos mediante Google Maps.
Con Pigeon era muy difícil posicionar un negocio si este estaba fuera de los límites de la ciudad. Además, en muchas ocasiones, esos límites que marcaba Google Maps para delimitar una ciudad no coincidían con la realidad. Esto provocaba carencias en los resultados de búsqueda, haciendo que negocios de esa ciudad que se encontraban en la periferia estuviesen mal posicionados en la SERP.
Con la actualización de este algoritmo también filtramos por localización, evitando que un negocio con dos nombres diferentes; pero con el mismo teléfono y misma ubicación aparezca por duplicado en la SERP (siempre que estas empresas sean del mismo sector).
Filtrar no significa ser penalizado, si no perdida de visibilidad, es decir seguirán apareciendo en la SERP; pero en resultados inferiores.
RankBrain (2015)
RankBrain es el nombre de un sistema de inteligencia artificial basado en algoritmos de aprendizaje automático.
El objetivo de este algoritmo es mejorar los resultados para palabras o frases que no conoce, el algoritmo puede suponer qué palabras o frases pueden tener un significado similar y filtrar los resultados. Gracias a esto puede ofrecer mejores resultados para búsquedas que nunca han sido solicitadas por los usuarios.
Google Fred (2017)
Este algoritmo afectó a todas aquellas páginas webs cuyo objetivo principal era buscar ganar dinero a través de publicidad o afiliación antes que ofrecer al usuario un contenido de calidad. Sin embargo si ofreces una página web de calidad, con buenos contenidos y con una buena experiencia de usuario no serás afectado por Fred.
Conclusiones
Si tu página web ha perdido posiciones después de la actualización del algoritmo de Google es que algo estás haciendo mal, o bien tus competidores lo están haciendo mejor.
Es posible recuperar la posición en la próxima actualización principal, eso sí, antes céntrate en dar el mejor contenido posible, de esta manera (y con la ayuda de algunos backlinks) recuperarás esas posiciones seguro.
Principios básicos para que el algoritmo de Google te posicione bien
- Crea páginas y contenido para los usuarios, no para los motores de búsqueda.
- Ofrece contenido real y posiciona según su contenido, no busques atraer más tráfico engañando a los usuarios.
- No intentes engañar a los algoritmos de Google, tarde o temprano harán una actualización y serás penalizado.
- Haz que tu web destaque, crea un tu sitio web único, con contenido valioso y una UX agradable.
Te recomendamos que sigas estas directrices de calidad de Google para posicionar tu web.
Si necesitas ayuda podre asesórate en temas de SEO.