Cómo hacer SEO para tu web: 3 consejos

Felipe Bazon se define a sí mismo como un “adicto al marketing” que hace más de 10 años se dedica al SEO. Es director de HedgeHog, una agencia de marketing digital con base en Londres y clientes en Latinoamérica y Europa. Este enérgico brasileño estuvo en Argentina y pasó por Miami Ad School para explicarnos de qué se trata el Search Engine Optimization y cómo dominar el algoritmo de Google con acciones y herramientas concretas:

Entender los 5 pilares del SEO

Hacer una auditoría SEO en 5 pasos

Evitar los errores frecuentes

Entender los 5 pilares del SEO

  1. Enlaces: los backlinks ayudan a posicionarnos mejor. Cuando otro sitio menciona nuestra web, es una señal para Google de que generamos contenido de calidad. Cuantos más enlaces de sitios importantes, mejor. No necesariamente tienen que ser mega sitios de medios internacionales. Quizás un medio local, más pequeño pero estratégico de nuestro sector, puede ser más efectivo.
  2. Contenido: atender las necesidades de nuestro usuario con información relevante y de interés. Estructurar los datos con títulos que contengan palabras clave, una meta descripción acertada, URLs que funcionan, imágenes adecuadas, etc.
  3. UX: proporcionar la mejor experiencia de usuario posible con un diseño que se adapte al móvil, que cargue los datos rápidamente, con información bien diseñada y presentada. Es decir, que la navegación sea sencilla e intuitiva.
  4. Aspectos técnicos: “Google sigue siendo un robot”, explica Felipe, y tenemos que entender cómo funciona para que pueda rastrear nuestra información. “El algoritmo de Google es como la fórmula de la Coca Cola: sabemos que lleva agua, azúcar y caramelo, pero no sabemos exactamente sus proporciones. Por eso, vamos probando distintas cosas y entendiéndolo. Viendo qué funciona y qué no. Aplicamos ingeniería reversa para descifrarlo”, resume el especialista. Hay ciertos parámetros que nos pueden ayudar a diagnosticar la salud técnica del sitio: analizar el acceso de bots, si hay páginas indexadas, si los datos están bien estructurados, si el tiempo de carga móvil es aceptable, entre otros (más detalle sobre esto más adelante)
  5. Monitoreo: de nada sirve hacer cambios en nuestro site si no sabemos si esas modificaciones son efectivas o no. Para un sitio de e-commerce, hay que analizar las métricas, ver la cantidad de visitas y de conversiones. “Muchos piensan en el posicionamiento, pero si no se generan leads que se traducen en ventas, no tiene sentido”, advierte Bazon.

Hacer una auditoría SEO en 5 pasos

  1. Escenario Actual. ¿Cómo está mi página hoy? ¿Cuántas páginas están bien posicionadas? ¿Cuántas personas la visitan? Hay distintas herramientas que nos ayudan a responder estas preguntas:
    • Google Search Console: una de las mejores herramientas disponibles. Chequear el mobile-first index nos permite optimizar la página para los celulares, algo esencial hoy. Desde 2008, Google empezó a rastrear con un mobile bot, y si la web no está bien adaptada para estos dispositivos, estaremos fuera del radar. En las acciones manuales, podemos ver si hay enlaces de mala calidad, datos que no están bien estructurados o contenido que viola alguna legislación. Las cuestiones de seguridad son muy importantes: acá nos informan si nos hackearon o si hay algún malware que afecta nuestro sitio. En la solapa de desempeño podemos analizar factores clave: cantidad de clicks, impresiones y CTR (click-through rate, cuyo porcentaje ideal es de 14-31%). Un buen posicionamiento sin clicks no tiene demasiado sentido y nos indica que tenemos que cambiar de estrategia. También podemos ver qué palabras clave buscó la gente para llegar a nuestra página. En la cobertura nos enteramos si hay errores de rastreo o páginas excluidas que hay que remover (le hacen perder el tiempo a Google, que va a empezar a ver nuestra webcon desconfianza). El sitemap es una especie de Excel del contenido de nuestro sitio, que podemos exportar y enviar a Google.
    • Google Analytics: entre otras cosas, nos dice el número de sesiones, usuarios, nuevos usuarios y porcentaje de rebote (personas que visitaron el sitio pero no interactuaron con otros links) para medir el tráfico de la web. Siempre es aconsejable analizar un rango de 12 meses de data. Cada producto o servicio tiene su estacionalidad y para hacer un diagnóstico de desempeño adecuado hay que ver la performance a lo largo de todo el año. Días como Black Friday, Navidad o el Día de la Madre pueden disparar las ventas pero no reflejar la salud comercial general. Acá podemos ver las visitas desde desktop y dispositivos móviles y ver con exactitud la cantidad de conversiones. Un Pro Tip de Felipe: en E-commerce tracking, empezar el trabajo de optimización para los productos de mayor precio (aconseja hacer una tabla para ordenarlos por valor) y así generar más ganancias.
    • SEMrush: en la visión general del dominio, podemos hacer un análisis de la competencia y ver, por ejemplo, qué palabras clave usan. También es posible analizar las palabras clave propias y hacer una investigación orgánica para ver de qué páginas viene el mayor volumen de tráfico. Podemos afinar los criterios y ver las posiciones en búsquedas orgánicas y la distribución de las posiciones orgánicas. Pro Tip para esto último: concentrarnos en las posiciones 11-20 (segunda página de Google). Si aún no optimizamos la web y vemos que tenemos, por ejemplo, 2 mil palabras clave en esas posiciones, es conveniente empezar por ahí, ya que pequeños ajustes pueden hacer que lleguen rápidamente a la primer página.

  2. Análisis de la competencia
    • SEMrush: investigar palabras clave y tráfico es de enorme ayuda. Pro Tip: hacer una tabla que compare las variables # Ranking Keywords/Posición en Google en nuestra página y sus competidores. Hacer otra que visualice el tráfico orgánico propio y de la competencia. Con SEMrush podemos exportar todas las palabras clave de cualquier página que queramos, en un solo click. El Keyword Gap Analytics nos muestra las palabras con los que los competidores están bien posicionados pero nosotros todavía no. El Backlink Gap Analytics nos dice dónde la competencia ya logró backlinks que nosotros aún no tenemos.
    • Majestic: una gran herramienta para chequear backlinks. Una tabla que organice los top referring domains de nuestros competidores nos ayuda a entender dónde tienen ellos los enlaces (tiendas, blogs, diarios, etc).

  3. Análisis técnico/UX. Felipe aconseja establecer un criterio de priorización: looks good/consider fixing/should fix. Los ítems de los últimos dos grupos requieren de nuestra atención inmediata. 
    • La mejor herramienta, según Felipe, para trabajar en esta área es ScreamingFrog. Funciona como un spider o araña, simula el comportamiento de un bot, y hace un diagnóstico SEO muy completo.
    • El Site Audit de SEMrush analiza más de 180 factores técnicos. Además, indica adónde están los errores y qué acciones tenemos que realizar para corregirlos.
    • Podemos chequear el acceso de los bots ingresando la URL/robots.txt. Si hay problemas de rastreo, acá lo podemos ver. Es preciso eliminar errores y páginas indexadas.
    • No confiar en el caché de Google: puede haber un problema de renderización que haga que Google solo rastree imágenes pero no textos.
    • Prestar atención a la semántica del código: Meta tags, Cannonicals, CSS y SS, Heading tags, paginación, etc. Es muy importante el orden de los tags en HTML.
    • Analizar que los datos estén bien estructurados. El Structured Data Testing Tool de Google puede analizarlo en detalle.
    • WEB.DEV analiza performance, accesibilidad, Best Practices para optimizar SEO.
    • El tiempo de carga móvil es un factor de posicionamiento muy importante. El Chrome User Experience Report nos da detalles propios y de la competencia. La usabilidad móvil general y el Mobile Indexing son claves para tener una página técnicamente saludable. A veces, cuando un sitio pasa del diseño desktop al móvil se pierde información en el proceso (datos estructurados, leading tags, etc) y eso puede ocasionar errores de rastreo.

  4. Análisis on-page
    • Títulos, meta descripciones, URLs, imágenes, contenido y enlaces internos y de salida. ScreamingFrog nos indica la salud de todos nuestros títulos y nos informa si hay duplicados. También nos hace saber si hay páginas que no tienen meta descripción.

      El on-page SEO checker de SEMrush da un análisis muy avanzado mediante técnicas de Machine Learning y otras variables. Por ejemplo, podemos ingresar una palabra clave y nos dice qué tenemos que hacer para optimizar y llegar al top de Google.

  5. Marketing de contenido y Link Building

    SEMrush y Majestic son herramientas útiles en este paso. Felipe describe dos áreas de trabajo con respecto a este análisis: EAT y UMP.
    • EAT (Expertise, Authoritativeness, Trustworthiness). “Le tenemos que decir a Google que somos expertos en lo que hacemos”, dice.
      • Poner especial cuidado en las páginas importante.
        • Política de privacidad
        • Aviso de privacidad
        • Términos y Condiciones
        • Quiénes somos (poner detalles: calificaciones, referencias, links a redes y cualquier data que muestre que tenemos credenciales y sabemos lo que hacemos). No alcanza con que nuestros colegas o amigos sepan quiénes somos: tenemos que tener buena fama para el bot de Google.
        • Atención al cliente.
        • Página de autor (muy importante para blogs).
      • Cuidar la presencia online (social, brand mentions, etc).
    • UMP (Update, Merge or Purge). Hacer una auditoría de contenido y realizar ajustes cuando sean necesarios. No es verdad que cuanto más contenido, mejor. Si es viejo, actualizarlo. Si tenemos mucha información sobre un mismo tema, es preferible agruparla. Y si no es relevante, eliminarla. Es aconsejable generar contenido evergreen, es decir, que no caduca y es relevante para todo momento. También es muy útil estructurar la data para que figure como fragmento destacado en la SERP de Google. La investigación orgánica de SEMrush nos dice para qué palabras ya tenemos esos fragmentos (y los de nuestra competencia). SEMrush, Google Search Console y Google Analytcs son la combinación perfecta para tener toda la información que necesitamos.

Evitar los errores frecuentes

  1. Tener páginas que no tienen que existir: aquellas excluidas y con errores de rastreo que tienen links rotos, cannonical tags o demasiado tiempo de carga en el servidor. Molestan al bot de Google y son una mala reputación de nuestra web.
  2. No cuidar la arquitectura del sitio: usar muchos tags u organizar la información de manera tal que no permita un rastreo limpio.
  3. No optimizar para mobile: en el paso del desktop al móvil, muchos programadores excluyen datos importantes que alteran el rastreo.
  4. No enfocarse en las necesidades del usuario: entender que el SEO no deja de ser marketing, y que la persona y sus deseos seguirán siendo el foco por más que el Machine Learning o la Inteligencia Artificial crezcan en el futuro.

El posicionamiento en buscadores es un factor de éxito incuestionable para cualquier sitio web. Si te interesa mejorar tu performance online, podés anotarte en nuestros cursos cortos de Marketing Digital y Digital Analytics. En poco tiempo y con los mejores profesionales, podés formarte en áreas estratégicas para llevar tu negocio o sitio a otro nivel.

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *