Carlos Redondo – Safecont

CARLOS REDONDO | SAFECONT

Nos visita Carlos Redondo, uno de los fundadores de Safecont junto con César Aparicio.

Desde el año 99 trasteando con diferentes proyectos en internet, Carlos es un gran especialista SEO y consultor de Marketing Online.
Ha trabajado para muchísimas marcas y agencias, de las que podemos destacar por ejemplo: Intercom Empresas, Relevant Traffic Spain, Havas Digital entre otras.

Además es ponente en diferentes eventos sobre SEO como puede ser el Clinic Summit.
Os dejamos el vídeo de su ponencia para que podáis conocerle mejor.

SEO Semántico, Lenguaje Natural y Search Intent con Carlos Redondo de Safecont.
Cómo detectar patrones y mejorar el SEO de tu web.
En Clinic Summit
:

Y ahora, una vez que ya está formalmente presentado, vamos con la entrevista 😊

Índice de contenido

A la espera de que lleguen nuevos y grandes movimientos en las serps con un nuevo core update por estas fechas, de hecho ya ha habido «falsos positivos» que sospechosamente notificaron como «bugs» ¿qué pudiste sacar en claro sobre el último: el ‘May 2020 Core Update’ de Google?

Lo primero, es que tuvo un impacto bastante importante para lo que se esperaba inicialmente. He visto la analítica de muchos sites con caídas de más del 70% de su tráfico orgánico (aún teniendo en cuenta la excepcionalidad del COVID, cambios de comportamiento y tendencias de búsqueda, tendencias mobile/desktop, etc).

Una parte del impacto fue provocado por cambios en SERPs, las tipologías de sites que muestra para cada query, así como los módulos de resultados enriquecidos, local pack, noticias, etc y no tanto por una devaluación puramente SEO de las páginas afectadas.

Dentro de la afectación SEO, vi muchísimas caídas en los contenidos poco correlacionados/offtopic con la temática principal del site, así como contenidos generados por el usuario (UGC). También contenidos con una calidad pobre cayeron. Aunque no parece que fuera el principal foco de aquella actualización, siempre se van incorporando mejoras en este punto.

Como bien apuntabas en tu respuesta, parece que en uno de los puntos donde más se notó este último core update es en la forma de mostrar las serps y los diferentes complementos que el buscador va incorporando, lo que hace más probable que esos resultados frente al resto se lleven el click, porque son mucho más grandes y visuales.
Todo esto suele ir más o menos en contra de los orgánicos clásicos, porque el top 1 por ejemplo cada vez se coloca a un scroll mayor. De hecho ya empezaron hace años con todo esto, añadiendo cada vez más opciones tipo search de Adwords. Negocio en publicidad para Google, en contra de premiar los resultados naturales.
Entonces, ¿qué es más rentable a nivel de negocio a día de hoy, optimizar para tratar de conseguir el premio/objetivo de ponerte top 1 o pensar en cómo marcar los datos de tu url y enriquecerla para llegar a aparecer en cualquier tipología de esos feature snippet que muestre tu serp?

Depende de la query, pero creo que debemos seguir trabajando en tener la mejor optimización SEO posible. Los formatos enriquecidos varían de mobile a desktop además.

Lógicamente hay keywords donde apenas aparecen resultados orgánicos normales, y aparecen muy abajo en página. En estos casos seguramente sea más rentable invertir el esfuerzo en conseguir aparecer dentro del local pack, dentro de news, utilizar los marcados schema apropiados para intentar salir ya sea con definiciones posición cero, FAQs, imágenes, vídeos. Todo esto para mi sigue siendo SEO, si Google no prioriza los resultados orgánicos habituales, tu trabajo también es adaptarte para conseguir aparecer en los módulos apropiados.

En estos últimos años Google está dando cada vez más importancia al contenido y parece que el algoritmo afina más y mejor a la hora de comprobar la calidad del mismo, gracias a la Inteligencia Artificial. Buscando una gran experiencia de usuario y apoyado en el contenido de valor que sigue las reglas EAT, aun así ¿qué piensas que influye hoy más para levantar un proyecto? ¿kw research, arquitectura web y contenido bien trabajado por un lado, link building pero con las otras 3 patas más flojas por otro, o como tercera hipótesis copiar y potenciar las estrategias de optimización onpage que estén siguiendo los que serían tu competencia en las serps?

Es una tendencia clara desde hace años, que Google muestra mucho interés en potenciar las señales relacionadas con la calidad del contenido, e intentar ser menos dependiente de las señales de linking. Y se han presentado innovaciones tecnológicas muy potentes en este sentido como por ejemplo BERT.

Aún así a día de hoy, los enlaces siguen siendo la señal mas potente dentro del SEO. Pero cada vez es más difícil posicionar sólo con enlaces si tu calidad de contenido no cumple unos mínimos.

Mi posición se enfoca mucho en la economía, optimiza tus recursos. Me explico, debemos intentar crear un contenido no de calidad, sino varias ordenes de magnitud por encima del de tu competencia. El popular 10x, no intentes tener un contenido aceptablemente bueno, sino apunta a tener un contenido 10 veces mejor. Al menos ten ese objetivo, y seguramente el resultado sea una pieza de contenido potente aunque no consigas que sea 10 veces mejor. Y esto es algo que tendrá un impacto importante en tu posicionamiento, junto a una buena optimización técnica y una arquitectura cuidada que te permitirá posicionar de una forma potente, estable y sobre todo escalable en el tiempo y con el crecimiento que tengas.
Al final es lo más inteligente, cuida primero lo que puedes controlar y te es más económico, que es el onpage.

La parte offpage es más costosa, mas volátil, y de la que tienes mucho menos control. Obvio que es muy importante, e imprescindible si quieres posicionar alto, pero si tu onpage no está trabajado estarás desperdiciando recursos ya que tus enlaces serán menos efectivos y posicionarás peor que si hubieras trabajado tu onpage.

Si tu arquitectura e interlinking no están bien, el “linkjuice” que aportan tus enlaces no se distribuirá correctamente en tu web y estarás perdiendo potencial de posicionamiento. No desaproveches la inversión en enlaces que haces por tener una mala optimización técnica o contenidos de baja calidad, el link building es caro.

Así que resumiendo, no olvidemos el básico del SEO: “Hazle la vida fácil a Google y te irá mejor”. Buena parte técnica, contenidos de calidad, y con esto te será mas fácil y barato tanto crecer, como conseguir enlaces y buenas posiciones. Así como evitar problemas de indexado, devaluaciones o penalizaciones por parte de los buscadores.

En cuanto a potenciar las estrategias de tu competencia en SERPs, es una información valiosísima. Recoge esa información y úsala, no te garantiza que te vaya a funcionar igual, pero es info gratis.

Sencillamente brutal el punto de vista que aportas.
Vamos con la siguiente: Google anunciaba que para 2020 entorno al 50% de las búsquedas serían por voz ¿qué hay de todo esto y qué relación le ves con Bert y las mejoras del algoritmo gracias a la IA para comprender realmente cuál es la intención de búsqueda del usuario?

Que la búsqueda por voz iba a ser la gran tendencia, llevamos 3 años escuchándolo y no acaba de llegar. Según mejoran los asistentes de voz, la tecnología del procesado de lenguaje natural y las IAs irá aumentando la importancia de este tipo de búsquedas. Aunque no todas las queries son susceptibles de dar un buen resultado en búsquedas por voz, o siquiera el usuario vaya a utilizarlas de este modo.

BERT es un antes y un después en este área, la aplicación de algoritmos bidireccionales y transformers de aprendizaje ha disparado la capacidad de entendimiento del lenguaje y sus aplicaciones van mucho más allá de lo que en principio se teorizaba.
No sólo han demostrado una eficacia que se acerca a la de un humano en procesar y clasificar el lenguaje, sino que este entendimiento del lenguaje ha hecho que estos algoritmos aprendan por si sólos a realizar tareas para las que no han sido entrenados. Por ejemplo un algoritmo como éste estaba pensado para clasificar textos, entender relaciones entre entidades, etc pero resulta que es capaz por si mismo de realizar otras tareas como dar solución a operaciones matemáticas y lógicas, realizar traducciones entre idiomas, generar contenidos de manera automática, y muchas otras tareas para los que no había sido específicamente diseñado o entrenado.

Ahora Google tiene una herramienta muy potente tanto para entender mejor cuales son las intenciones de búsqueda del usuario, como para detectar qué relaciones entre entidades e intenciones de búsqueda tienen los contenidos de tu página. Y así componer SERPs mucho mejores de lo que estaba haciendo hasta ahora.

Tema page rank y linkjuice. Trabajas bien tu perfil de enlaces con un buen link building y consigues backlinks que te transmiten relevancia/popularidad y tráfico. En un principio procedente de webs sanas y con un histórico creciente, pero por diferentes motivos mucho tiempo después son penalizadas ¿hasta qué punto te puede hundir un proyecto un enlace así que con el paso de los años acaba siendo nocivo? Sabiendo que no viene de ninguna técnica blackhat SEO por supuesto, y la opción ‘disavow’ como decía hace poco John Mueller, a ojos de Google no es efectiva ¿cómo actuarías tú para evitar una posible penalización?

Un solo enlace nunca te va a hundir un proyecto, no funciona así. Hace ya mucho tiempo que estos algoritmos funcionan de forma “granular”, y la tendencia de Google es a detectar e ignorar estos enlaces más que a aplicarte una penalización directa a la página o al dominio.

Cuando pasado un tiempo detectas que estás perdiendo posiciones y tráfico, y pongamos que pudiéramos saber que es por enlaces, probablemente no es tanto que Google haya penalizado tu sitio sino que esos enlaces que antes estaba valorando y estaban transmitiendo popularidad a tu dominio, ahora serán ignorados. Por lo que tu página perderá autoridad y te bajará posicionamiento y tráfico.

Sólo en casos donde el buscador detecta un patrón artificial de SPAM en tu perfil de enlaces, puede llegar a penalizar tu dominio y suponer un problema grave. Pero esto era mucho más común hace años de lo que es ahora. Y cuando sucede suele ser más por penalizaciones manuales, donde recibirás aviso, tendrás que tomar medidas y solicitar reconsideración a los revisores desde la Search Console del buscador.

John Mueller no ha dicho que el disavow no sea efectivo, trata de desalentar su uso porque desde Google vieron que una gran parte de las personas que estaban haciendo uso de este archivo, estaban dañando innecesariamente su posicionamiento por errores o desconocimiento. Es fácil comprobar si el disavow es efectivo o no, coge todos tus backlinks y mételos en disavow, y observa lo que pasa con tu tráfico orgánico pasadas unas semanas. Ya te adelanto que probablemente te llevarás un buen susto.

En los casos que he trabajado con penalizaciones por enlaces ya sean manuales o algorítmicas el proceso es similar: auditar tu perfil de enlaces, detectar los que puedan ser considerados artificiales o spam, intentar eliminarlos si tienes control de ellos o puedes ponerte en contacto con las páginas que te enlazan, enviar a disavow los que no hayas podido eliminar y esperar en el caso de penalización algorítmica, o solicitar reconsideración con todas las acciones realizadas y bien documentadas.

Y tener en cuenta, que aunque te retiren la penalización tardarás algún tiempo en recuperar. Además habrás perdido autoridad, por lo que es necesario conseguir que te enlacen nuevos sitios de una forma orgánica y con la mayor calidad posible.

Y ya para terminar a modo consejos/sugerencias, una pregunta enfocada en la gente que nos lee y quiera empezar con su nuevo proyecto web. Acaban de contratar un dominio y por tanto no tendrán autoridad, también hosting de calidad y buena velocidad de carga, hacen un buen keyword research, arquitectura web, contenido de valor, etc… lo que sería un supuesto inicial de lanzamiento «ideal» para un site muy pequeñito de unas 20/30 urls ¿cuánto tiempo crees que necesitan para levantar el vuelo y que les empiece a llegar tráfico orgánico sin link building? ¿Qué les recomendarías?

Con 20/30 URLs sin ningún tipo de enlace es complicado, dependerá de la temática y la dificultad de las palabras clave a las que apunte. Poner algunos enlaces de calidad aunque sean pocos desde el primer momento para que vaya indexando y cogiendo fuerza es una buena idea. Hay proyectos que pueden posicionar y captar algunas visitas pasados unos pocos días, y otros que tardarán de 3 a 6 meses en obtener unos resultados decentes.

Con más contenido sí puedes captar tráfico sin enlaces, ya que aunque difícilmente obtendrás primeras posiciones para tu short tail ya que no tienes autoridad, sí atraerás volumen de tráfico a través de un gran número de búsquedas longtail donde la competencia es menor. Así que centra tus esfuerzos en posicionar esas longtails y luego escala hacia arriba. Y a partir de ahí ya Google puede empezar a captar señales de tu dominio, e ir progresando.

Otra buena idea es intentar aprovechar los resultados enriquecidos y los módulos especiales de Google para captar visitas. Aparecer en Places/LocalPack es relativamente sencillo, o en Discover si tienes el contenido y la optimización apropiada. Intenta ser creativo y aprovechar las pequeñas oportunidades que puedes tener.

Genial Carlos, un placer haber podido charlar contigo y un lujo todos los consejos y opiniones que has aportado.
Un contenido muy potente y de valor el que nos enseñas y te estamos muy agradecidos en aceptar nuestra invitación a participar en nuestra sección de entrevistas.

No dudes en comentar debajo si quieres que te responda Carlos a cualquier duda y comparte en tus redes sociales si te ha gustado 🤓
¡Hasta pronto!

Eduardo García Indurria

Sobre Eduardo García Indurria

★ Consultor SEO & SEO Manager ★ CEO & Founder de Design Boost Studio | Te ayudo a contar al mundo lo que haces.

Deja una respuesta