- Morris Hohen
Las actualizaciones del algoritmo de Google desde 2011
Antes de 2011, era relativamente fácil para los operadores de sitios web conseguir buenos resultados en los resultados de búsqueda de Google si practicaban intensamente la "construcción de backlinks". Así, simplemente adquirieron (por dinero) muchos enlaces "follow" de sitios web con alto pagerank.
De este modo, incluso los sitios web de baja calidad que tenían poco o ningún valor de utilidad para el buscador podían alcanzar muy buenas posiciones en los resultados de búsqueda de Google. Sin embargo, a partir de 2011, Google declaró la guerra a los sitios web con una estructura de backlinks dudosa o con contenido "malo" con sus actualizaciones del algoritmo Penguin y Panda.
La actualización de Panda tenía el objetivo particular de identificar y degradar los sitios web con factores de clasificación inferiores. Al hacerlo, esencialmente las siguientes señales condujeron a un descenso del sitio web:
Demasiado poco contenido único
Muchos anuncios en la página
El título y el contenido de la página no coinciden
Frecuencia anormal de palabras clave individuales
Google está logrando su objetivo. En 2011, hubo una larga lista de perdedores de actualizaciones, en parte bastante conocidos, en los países de habla alemana que tuvieron que perder su visibilidad de forma significativa. Hubo varias actualizaciones en los años siguientes y, desde 2016, el algoritmo Panda forma parte del núcleo fijo de Google.
En 2012, Google tomó medidas contra el spam de backlinks con su actualización Penguin. La calidad de los backlinks se examinaba ahora con más atención y los backlinks de baja calidad pasaban a no tener prácticamente ningún valor. Antes de la actualización de Penguin, los backlinks habían aumentado más o menos el PageRank. No importa de dónde los backlinks no pueden ser perjudiciales, por lo que muchos webmasters creían. Sin embargo, a partir de ahora también es posible que los backlinks de baja calidad envíen señales negativas. Google pudo penalizar las páginas enlazadas sobre la base de estas señales. Los perdedores de la actualización de Penguin fueron en particular los sitios web que se dedicaron a la construcción agresiva de enlaces con la ayuda de compras de enlaces "prohibidos".
El último algoritmo Penguin también se conoce como Penguin en tiempo real (Penguin 4.0), porque ahora es posible castigar y rehabilitar el sitio web en "tiempo real". Para los webmasters afectados, será más fácil rastrear la causa específica de un deterioro repentino de la clasificación e iniciar rápidamente las contramedidas. Además, el ranking de la página individual a la que se hace el enlace se va a devaluar. Anteriormente, era más bien el sitio web en su conjunto el que era penalizado por Google.
Por lo tanto, los operadores de sitios web no sólo deben garantizar una construcción de enlaces adecuada, sino también llevar a cabo una gestión exhaustiva de los backlinks para detectar los enlaces dañinos y contrarrestarlos lo antes posible.
Después de que Google tomara medidas exhaustivas contra el webspam con sus actualizaciones Panda y Penguin, le siguió la actualización Hummingbird en 2013. Desde entonces, Google ya no sólo evalúa las palabras clave, sino que también intenta comprender cuál es el objetivo del buscador con su consulta. En el caso de las consultas de búsqueda que constan de varias palabras, ahora se "interpreta" todo el contexto de la consulta para entender su significado.
Desde entonces, Google ha sido capaz de comprender mejor las consultas de búsqueda planteadas en "lenguaje cotidiano". Un ejemplo de ello sería la pregunta de búsqueda: "¿Quién descubrió América?". Entre otras cosas, Google responde a esta pregunta con un enlace a la entrada de Wikipedia en alemán "Christoph Kolumbus".
Es de suponer que, ya en 2013, Google quiso hacer justicia al hecho de que las consultas de búsqueda a través del lenguaje hablado aumentan continuamente y que, en el futuro, la comunicación entre los seres humanos y los ordenadores probablemente tendrá lugar predominantemente a través del lenguaje hablado. Con la actualización Hummingbird, Google ya había sentado las bases para adaptarse a esta evolución desde el principio.
Como conclusión provisional, cabe señalar que Google ha conseguido con sus actualizaciones de algoritmos complicar la vida a todos los sitios web que se basan en contenidos de baja calidad y sin contenido y en medidas de SEO cuestionables.
En 2015, el algoritmo Hummingbird se complementó con un nuevo algoritmo llamado RankBrain. Con ella, Google puede entender mejor las consultas de búsqueda que son complejas y ambiguas. Según Google, muchas de sus consultas de búsqueda son completamente nuevas, es decir, nunca antes se habían introducido de esta forma exacta. RankBrain permite a Google responder mejor a estas consultas de búsqueda. Por ejemplo, RankBrain ayuda a Google a entender mejor las frases coloquiales. RankBrain reconoce patrones y regularidades y puede utilizar estos conocimientos para evaluar mejor los datos futuros. También se analiza el comportamiento del usuario en relación con los aciertos sugeridos y se sacan conclusiones sobre la intención de búsqueda y la satisfacción con los resultados. RankBrain representa así el inicio de una tecnología de búsqueda en la que la inteligencia artificial (IA) desempeñará un papel cada vez más importante.
Para los operadores de sitios web, la evolución de los algoritmos de Google significa que, para lograr una buena clasificación, tienen que proporcionar respuestas concretas a las preguntas de los buscadores que tengan el potencial de resolver sus problemas y responder plenamente a sus preguntas. Ya no son los sitios web que coinciden más exactamente con las palabras clave de la consulta de búsqueda los que ocupan los primeros puestos, sino los sitios web que pueden responder de forma óptima a la pregunta del buscador. A largo plazo, esto sólo puede lograrse con contenidos únicos que aporten un alto valor de uso para el buscador.
