¿Cómo funciona Google (y el resto de buscadores)?

Hoy en día, más del 90% de las consultas se realizan a través de Google. Pero no por ello debemos obviar el resto de alternativas también muy interesantes (sobre todo en temas de privacidad) con gran potencial, como por ejemplo: Firefox, Qwant o Duckduckgo. Destacar especialmente este último sería un gran error, ya que actualmente cuenta con 30 millones de búsquedas diarias, y es un pasto verde para el SEO.

Hace unas semanas Luis Calvo nos hablaba de la importancia de que nuestra Single Page Applications (SPA) sea indexable por Google. Hoy vamos a profundizar más en cómo funciona Google (y el resto de buscadores).

¿Cómo funciona el buscador?

Podemos definir un buscador como un sistema de recuperación de información, donde el usuario introduce una serie de palabras clave y este devuelve una serie de resultados ordenados en base a una serie de criterios.

Hoy en día, los buscadores presentan unos resultados cada vez más personalizados para cada usuario, en función del tipo de búsqueda (informativa, local, transaccional…) y en función de cientos de variables como veremos posteriormente.

Tomando por ejemplo, la búsqueda “Comprar zapatillas” vemos que se obtienen 207 millones de resultados en apenas 0,53 segundos. En este caso, los resultados se reparten entre:

  • Google Shopping
  • Google Ads
  • Google Maps
  • Y, finalmente, resultados orgánicos

Es importante mencionar que esta búsqueda se realiza contra su propia base de datos, con los resultados que tiene almacenados y ordenados según su propio criterio (su algoritmo de búsqueda).

De aquí que los resultados difieran entre buscadores y entre las versiones del propio Google, donde cada país cuenta con su propia versión del buscador (por ejemplo, Google.es para España, o Google.co.uk para Reino Unido) y su propia base de datos.

Con lo cual, para aparecer en los buscadores es condición necesaria que estos tengan almacenada nuestro contenido en su base de datos cumpliendo una serie de condiciones de rastreo e indexación y calidad para poder aparecer entre las primeras posiciones.

Proceso del buscador

Antes de aparecer en los resultados de búsqueda, los buscadores realizan un proceso que se divide en tres fases, tal y como resume Matt Cutts en el siguiente vídeo:

Las tres fases que realizan tanto Google, como cualquier buscador, son las siguientes:

1ª Fase: búsqueda de la información o rastreo

En la fase de rastreo los bots o arañas tratan de descubrir nuevas páginas webs y añadirlas a su base de datos. Se trata de un procedimiento continuo de descubrimiento, ya que no existe un registro central de webs.

Los bots deben seguir los enlaces de las webs que ya se encuentran en su índice, además de seguir los sitemaps que facilitamos a través de la herramienta Search Console.

Al tratarse de un ciclo continuo, los bots registran y actualizan su base de datos con las nuevas webs, los cambios realizados en ellas y eliminan los enlaces obsoletos o páginas eliminadas, siempre limitados por un “presupuesto de rastreo” que marca qué webs se deben de rastrear, su frecuencia y el número de páginas por rastreo.

Consejos para mejorar el rastreo de nuestra web

Estos son algunos consejos para facilitar el rastreo de vuestras webs:

  • Crear un sitemap.xml con las páginas que componen tu web y envíalo a través de Search Console.
  • Define en el archivo Robots.txt las rutas de navegación que no deben ser seguidas por los bots. ¡Ojo! Esto no quiere decir que las URLs no pueden llegar a ser indexadas, ya que puede ocurrir si dichas URLs cuentan con enlaces apuntando hacia ellas.
  • Emplear rutas sencillas con URLs friendly y enlaces internos con un estado 200 (ok).
  • Indica la paginación de contenidos de manera clara.
  • Controla e informa a Google del tratamiento de los parámetros de las URLs.
  • En webs internacionales con varios idiomas emplea la metaetiqueta Hreflang.
  • Emplea la etiqueta canonical para controlar versiones originales y duplicadas de contenidos.

Herramientas útiles para crawlear nuestra web

Herramientas como ScreamingFrog o Sitebuld nos pueden ayudar a la hora de identificar posibles problemas de rastreo.

Estas herramientas simulan un crawl a través de nuestra web, es decir, identifican y siguen todos los enlaces de nuestra web diferenciando entre los distintos elementos que la componen, código de respuesta, directivas que contienen, hreflang…

Se trata de herramientas muy útiles y potentes a la hora de auditar nuestra web en las primeras fases de funcionamiento del buscador (rastreo e indexación) y que disponen de un grado de personalización acorde al tipo de rastreo que deseemos en función de nuestras necesidades.

2ª Fase: indexación o almacenamiento de la información

Durante la indexación los buscadores reconocen las diferentes páginas que componen un sitio web y lo almacenan en su sistema. Analizan el contenido de cada página, los recursos incluidos (vídeos e imágenes) y las meta etiquetas, como por ejemplo: Title o el “ALT” o texto alternativo de las imágenes.

El artículo de Luis al que se hacía mención al inicio del post se centra en las dificultades que presentan las Single Page Applications (SPA) y el lenguaje JavaScript en la fase de indexación, ya que si no se configuran de manera correcta los bots recibirán un HTML vacío y se ofrecen varias soluciones a este problema.

Tips para mejorar la indexación de nuestra web

Llegados a este punto debemos destacar la importancia de la estrategia SEO que deseemos aplicar en nuestro sitio e indexar aquellas URLs con mayor potencial para los objetivos de la web.

Os dejamos algunos consejos para mejorar la indexación de la web:

  • Emplear meta etiquetas Noindex para evitar el rastreo de contenidos. No es recomendable incluirla en los contenidos que se encuentren bloqueados por robots.txt, ya que es posible que los bots no “vean” esta directiva llegando a indexarse el contenido.
  • Incluir Titles descriptivos y únicos para cada contenido.
  • Estructurar el contenido mediante encabezados de acuerdo a la importancia de cada contenido.
  • Emplear contenido con texto y añadir atributos descriptivos a las imágenes y vídeos.
  • Incluir datos estructurados para enriquecer los resultados de búsqueda y transmitir más información a Google.

¿Cómo analizar la indexación de mi web?

En el caso de la indexación podemos acudir al informe de “cobertura” que nos facilita Search Console, además de la herramienta “inspector de URL”, desde la que podremos analizar el estado concreto de una url.

El informe de cobertura nos ofrece una información muy valiosa del estado de nuestras URLs y los motivos que causan estos estados.

Así, por ejemplo, para los distintos errores de nuestra web, podremos saber si se tratan de errores de servidor o cliente, sí han sido bloqueadas por el archivo robots.txt o si cuentan con algún problema de rastreo que debemos de analizar en profundidad.

3ª Fase: posicionamiento o clasificación de los resultados

Esta última parte nos vuelve a llevar a la búsqueda “Comprar Zapatillas” y a los 207 millones de resultados obtenidos y concretamente la manera en que se encuentran clasificados.

El algoritmo de Google cuenta con más de 200 factores en constante actualización, que buscan presentar los resultados de la manera más acorde a la consulta del usuario con el objetivo de dar al usuario la mejor experiencia posible.

En la presentación de resultados intervienen aproximadamente 250 factores, entre los que se encuentran la ubicación del usuario, su idioma y el dispositivo desde el que se realiza la búsqueda.

Técnicas para mejorar el posicionamiento de nuestra web

  • Optimizar la velocidad de carga, especialmente para dispositivos móviles.
  • Añadir contenido relevante, de calidad y actualizado.
  • Facilitar una buena experiencia de usuario en la navegación de la web.
  • Valorar la opción de implementar AMP para mejorar la velocidad en dispositivos móviles y poder aparecer en carrusel de noticias destacadas.

En la siguiente galería de imágenes aportamos una serie de ejemplos de resultados de Google personalizados para distintos tipos de búsquedas, desde marca, personaje público, recetas a búsquedas más localizadas como la cartelera del cine o restaurantes cercanos a los que acudir.

Búsqueda El Padrino

Búsqueda Messi

Búsqueda “receta tortitas”

Hasta aquí, la explicación de cómo funcionan los buscadores. En siguientes post profundizaremos en cómo trabajar nuestra web para lograr que sea amigable para los bots en las distintas fases y obtener mejores resultados en Google.

Consultor Senior de marketing digital en Paradigma Digital, especializado en captación de tráfico de manera orgánica o de pago con más de 5 años de experiencia. Durante este periodo he trabajado con clientes de diverso tamaño y sector, desde posicionamiento local al desarrollo de estrategias de captación en mercados internacionales.

Ver toda la actividad de Antonio Jesús Rodríguez Calvete

Escribe un comentario