Mitos absurdos – ¡Oh no, sesiones cortas y alto rebote!
Hola cabrones. A lo largo de los años, el SEO ha ido cambiando tanto como tú o yo hemos podido cambiar. Es un proceso continuo y constante, por eso siempre digo que en esto no hay expertos, hay «practicantes». Uno de los hechos que damos por sentado y que podemos englobar dentro de los «fundamentos básicos del SEO on page» es que parte de los valores principales de calidad de nuestro tráfico se pueden deducir de los ya icónicos valores que Google Analytics nos da desde hace muchos años: el rebote y la duración de estancia en la página.
Sin duda Analytics tiene que tener parte de culpa, ya que siempre le dio una importancia destacada en su panel de analítica, pero el problema es nuestro: convertimos estos valores en la llave maestra de lo que más tarde comenzamos a llamar, popularmente, «experiencia de usuario», y que a los que monetizan nichos y webs pequeñas/simples (que no venden) nos importaba un pimiento hace unos años.
Hace ya mucho tiempo hablé de lo relativos que eran estos valores, pero hoy quiero profundizar en el tema y mostraros lo absurdo que es tomar estos valores de la forma más mínimamente absoluta. Todo esto se me ha ocurrido porque desde hace un tiempo, una de mis webs se ha hundido misteriosamente, y después de analizarla, llegué a la conclusión de que tenía que ver con la experiencia de usuario. Os quiero enseñar este caso práctico.
Rebote y duración de las visitas
El rebote es, en esencia, la salida directa de alguien que visitó nuestra web. Es muy sencillo de entender, si una persona visitas nuestra web y se va sin hacer click o navegar por dentro, se considera una visita rebotada. Si mandamos a un sitio visitas de Hitleap, por poner un ejemplo, seguramente el rebote será del 100% porque estas visitas no hacen nada. Si de 100 visitas que tenemos, 60 se van sin más, tendremos un rebote del 60%. 60 de cada 100 personas que accedieron a nuestro sitio se fueron sin navegar.
La duración de la visita es, como su propio nombre indica, lo que cada visita en cuestión permanece en nuestra página. En el caso concreto de Analytics este valor es virtual, ya que Analytics, al menos en la versión que casi todos usamos, no puede contabilizar la estancia de una visita rebotada (que no navegó). Digamos que evalúa la duración de la visita contando el tiempo que pasa entre click y click, una estimación aproximada. Otras herramientas de heatmaps como Hotjar sí que pueden medir la duración exacta de las visitas, porque hacen un seguimiento de todos los movimientos del visitante.
Ahora voy a formular algo y quiero que, antes de seguir leyendo, pienses qué te sugiere:
«Imagina una web que en Analytics tiene un rebote altísimo del 80% y una estancia de las visitas que no llega a los 25 segundos. Con cuál de estas frases se identifica mejor el sitio:»
- Una auténtica mierda en cuanto a experiencia de usuario se refiere
- Una web con una experiencia de usuario sobresaliente
Ok, doy por sentado que has elegido una respuesta y ahora te voy a argumentar la mía. Aquí va mi súper premisa de hoy:
NO, pese a la creencia popular, tener un rebote lo más bajo posible y una duración de visitas muy alta no tiene por qué ser bueno.
Por lo tanto, dicha web puede corresponderse con el punto 1 o con el punto 2, es decir, puede ser una mierda, o una web perfectamente optimizada de cara a los usuarios, y por tanto, de cara a los algoritmos de Google que se preocupan por esto.
Para entenderlo debo poner otros 2 ejemplos en los que una webs con dichos valores podría ser una mierda, o una trufa:
- Una web warez que ofrece visualizar películas: Un rebote alto no tiene sentido, porque una web warez genera más clicks que cualquier otro tipo de web (botones de descarga y visualización), y una estancia tan baja solo puede significar que la web en cuestión no responde la solicitud del usuario (ver una película, que dura 1-2 horas).
- Una web de pesos de los famosos: Un rebote alto es totalmente lógico porque la gente simplemente googlea «peso de Justin Bieber» y si esta web da esa respuesta de forma directa está satisfaciendo plenamente la búsqueda del usuario, no hace falta navegar ni perder más tiempo. Una estancia de 25 segundos es más que suficiente para leer lo que pesa un famoso, y una duración mayor podría ser hasta contraproducente, porque no tiene sentido que los usuarios tengan que invertir 1, 2 o 5 minutos en obtener esa información tan simple.
¿Se entiende verdad? Todo es relativo, pero relativo hasta un punto total. Muchos webmasters piensan que la duración y la estancia de tu sitio es evaluada por Google en relación al resto de sitios que compiten contigo en las SERPs, e incluso con Analytics, hasta cierto punto, puedes evaluar esto con las comparativas; pero va mucho mas allá: la duración de las visitas y el rebote de Analytics son valores totalmente subjetivos y pueden significar o no significar nada sobre cómo es la calidad de la experiencia de usuario de tu sitio. Puedes tener unos valores que son considerados popularmente «muy buenos» y ser evaluado negativamente por los algoritmos de Google que se ocupan de esto, y viceversa. Los valores de Analytics no son los valores que trackea Google, son simples valores de una herramienta de Analítica que dista muchísimo de tener la potencia que tienen los algoritmos de Google.
El falso rebote y estancia de Analytics
Suena chungo, pero es así. Cometemos un grave error al considerar el rebote de nuestra web en Analytics como un valor cualitativo, e igualmente cometemos un error al considerar lo mismo con la estancia de las visitas.
En su lugar los valores reales que probablemente originaron esta gran confusión son el «pogo sticking» y el «dwell time» Serían los valores importantes con los que podríamos comparar el rebote y la estancia de Analytics. Estos sí que importan y, lógicamente, no los podemos medir. Google en cambio sí lo hace, y lo hace a través de todos esos maravillosos parámetros que ves cuando haces click en cualquier resultado de las SERPs:
Pogo sticking y Dwell time
Pogo sticking y Dwell time es parte de lo que sucede en el verdadero hervidero de «experiencia de usuario»: el Top 10 (o quizás 20, 30, 50… No tengo una certeza absoluta). No penséis que Google se va a molestar en medir estos datos en la página 15, jeje.
En definitiva, y esto son definiciones digeribles pero poco técnicas, el Pogo sticking es la medición que Google (y otros buscadores) hacen en las SERPs cuando una visita medible rebota de un resultado a otro, dando a entender que probablemente el primer resultado no daba la respuesta al usuario, que es la premisa principal de Google, su mantra: responder al usuario de la mejor forma y con la mayor rapidez/efectividad. Habrá un punto en el que esa visita medible haya dejado de rebotar, y presumiblemente, allí habrá encontrado la mejor respuesta o la parte final de la respuesta que buscaba.
Si a esto le sumamos el Dwell time, el tiempo que transcurre entre esos clicks en las SERPs, se nos antoja con bastante claridad que ésta es una forma muy efectiva de valorar la experiencia real del usuario. Por definición, Pogo sticking y Dwell time son muy parecidos a el «rebote» y la «estancia» de Analytics, pero no tienen nada que ver.
La clave es que tener un rebote alto en tu web no significa que esa visita rebotara hacia otro resultado, porque probablemente tu web le dio el resultado ideal y esa persona dejó de buscar sobre el tema, totalmente satisfecha. De nuevo, como mencioné más arriba, el rebote es engañoso, y lo mismo sucede con la estancia en el sitio, condicionada por este rebote engañoso.
Pensad por un momento en Wikipedia. Probablemente la web grandota con mejor experiencia de usuario porque tiene información súper completa sobre prácticamente todo. ¿Qué rebote tendrá? Pues uno súper alto, porque la gente entra, consulta, recibe la información que busca, y se va; y sin embargo la experiencia de usuario es muy buena.
Ojo, no digo que esto aplique de manera rotunda. Lo único que aplica de manera fulminante con Google son las acciones manuales, jejeje. Es un factor más, como otros, la experiencia de usuario, pero ha quedado bastante demostrado que en miles de keywords que pelean en el Top 10, la experiencia de usuario y cómo actúan los visitantes (lo que Google trackea de ellos) es un factor incidente e importante.
Mi caso personal
Tengo muchas páginas web, tantas que he perdido la cuenta entre registradores, servidores, PBNs y demás. Hace unos meses comencé una red de casi 20 nichos, de los cuáles algunos despegaron rápido, otros han ido despegando, y otros aún siguen en posiciones 30-50. Son nichos centrados en palabra clave de 10k-50k búsquedas, muy específicos, y que yo llamo «call-to-click» (¡hola teamplatineros!).
Uno de ellos en particular despegó relativamente rápido y se colocó en Top 5 para su keyword principal, pero hace unas semanas empezó a caer en picado. Con tantas webs encima, y aunque tengo un buen amigo, Guillermo, que me ayuda con la gestión y trabaja en estos nichos, no nos fijamos en su momento, pero hace unas semanas nos dimos cuenta de la brutal caída:
Lógicamente empiezas a investigar: SEO negativo, acciones manuales, alguna reseña podrida, sitio caído, carga lento, inyecciones de código malicioso… Nada, totalmente limpio.
Me puse a investigar un poco más y detecté algo, y como podrás imaginar, tenía que ver con la experiencia de usuario. Se trataba de un fallo garrafal que me hace confirmar con más rotundidad mi opinión sobre cómo evalúa Google en estos casos cuando están en la cima. El sitio web trata sobre una aplicación que puedes descargar, y desde la página inicial enlazamos a una página interna en la que se da un tutorial sobre la aplicación y se ofrece el link de descarga…
¡Zas! Por error o despiste (no es fácil crear y gestionar a diarios tantos sitios) no habíamos incluido los enlaces de descarga, ni en nuestro propio servidor ni enlazado externamente, y lo único que tenías en la página interna era más enlaces que te hacían seguir navegando por las 5-6 páginas del sitio.
Como podrás ver en la imagen de arriba, una duración de visitas (1:41 minutos) y un rebote fantástico (36%), pero una experiencia de usuario de mierda => Consecuencias => caída en las SERPs de forma progresiva, como a Google y a Panda le gusta/ba hacer, una muerte lenta y dolorosa jeje. Una vez Google tenía suficientes datos como para confirmar que ese resultado no era positivo para los usuarios que buscaban «x» keyword, nos dio en la madre.
Os dejo otra captura de la subida y bajada del sitio hasta el día de hoy:
Como habrás imaginado, solucionamos dicho despiste hace apenas 2 semanas, pero el sitio ya parece estar fuera del «ojo que todo lo ve» en el Top 10, y habrá que esperar para saber si Google nos da una nueva oportunidad para estar en el Top, y si ahora, después de mejorar la experiencia del usuario que viene a descargar una aplicación, nos deja estar ahí arriba 😉
Conclusiones
Creo que mis conclusiones y mi opinión respecto a todo esto han quedado plasmados en este artículo, así que ahora queda saber qué opináis vosotros, así que ya sabéis, usad los comentarios para dar vuestro punto de vista, corregir detalles técnicos, opinar al respecto… Todo es bienvenido golf@s 😀
Me quedo con algo que Google dice una y otra vez en sus directrices… «Todo depende del propósito de la página».
Ya lo decía Jarabe de Palo… Según cómo lo mires todo depende 😛
PD: yo tengo una web de descargas sin un enlace externo, todos internos, y no he notado bajadas por ahora. Pero visto lo visto voy a cambiar el chip jajajaja, por si las moscas…
Pues ya sabes jeje, investiga bien la página a ver cómo actúan las visitas, y tus competidores directos para esa keyword, que también es parte muy importante de esto. Un abrazo
Pues más que el propósito de la página, es la intención de la búsqueda. Me refiero, por mucho que quieras que tus usuarios lean los beneficios de una aplicación, la intención de su búsqueda es descargarla y listo.
Entonces, no puedes esperar posicionar para una Keyword cuya intención de búsqueda es descargar ofreciendo «beneficios de la app» solo porque ese es el propósito de tu página.
Buenas! Me he encontrado con anuncios de adsense que al pincharlos se abren en la misma pestaña que la web en la que los ha cargado y que por lo tanto te echan de la misma. Estaría interesante saber si eso influye en el porcentaje de rebote, o bien Google no lo tiene en cuenta.
Me gustaría ver qué opinan los demás lectores, yo creo que al ser parte de la plataforma de publicidad del propio Google, lo tendrán en cuenta en sus algoritmos ¿?
Pues del tema adsense, y después de la depresión de leer tu post (cada vez estoy más perdido con google y el p**o algoritmo); Creo que a google le interesa la efectividad del anuncio, y establecerá de algún modo la relación entre la página que muestra el anuncio y la web destinataria que paga adwords.
Puestos a divagar, si el que hace clic en el anuncio hace una conversión en la web que paga, google debería valorar positivamente la web que publica el adsense, porque ese anuncio es oportuno.
Respecto a si el anuncio se abre en la misma pestaña tenemos teorías para dar y tomar; Porque si el usuario retrocede en el navegador y vuelve a la web inicial puede ser interpretado como que el anuncio es una basura o que está mal confeccionado (me viene a la mente Alex Navarro, que se le ha escapado alguna vez eso de poner los anuncios ‘a mala leche’ para que le hagas clic ‘por error’.
Y todo lo contrario también serviría; Si el usuario visita el anuncio y no vuelve es porque se habrá quedado super-mega-hiper-satisfecho y ya no necesita volver a la web inicial.
Aprovecho para felicitarte por el artículo, por destrozar una de las pocas cosas que creía que conocía de google, y porque no hay manera de reproducir ningún experimento que involucre adwords… a menos que la web a la que te refieres en tu artículo remonte a lo bestia y nos lo cuentes, que se agradecería. Saludos.
Gracias por tu comentario! Ojalá así sea, de momento queda como un caso más del que he sacado conocimiento, y bueno al menos dio algo de dinero mientras estaba arriba 😛
Hola chuiso! Fantastico!
Respecto a lo del rebote te sumo el ejemplo por de las paginas de a cuanto cotiza el dolar o las del tiempo.
La pregunta que tengo es como identificas que el problema era que no habia link de descarga era el problema? Si la gente sigue navegando en el sitio ¿porque es algo malo?
Bajo la misma logica tambien deberia penalizar a las paginas de compras o de clasificados ya que uno puede buscar varias veces hasta hacer la compra.
Buenas crack! Lo que comento es mi diagnóstico, puedo estar equivocado, pero al ser un sitio pequeño no hay un mucho por donde tirar, y teniendo 20 sitios similares y siendo ese el único en el que se nos pasó, y que se cayese así, y que generaba ese interlinking continuo… Ese es mi diagnóstico.
Es malo porque ante Google, las visitas iban a mi sitio, navegaban mucho, pasaban 2 minutos, y finalmente se daba el «pogo sticking», casi con total seguridad, hacia otros sitios, porque mi resultado no estaba dando lo que el usuario buscaba.
«Bajo la misma lógica también deberían penalizar a las paginas de compras o de clasificados ya que uno puede buscar varias veces hasta hacer la compra.»
No has captado bien el mensaje del artículo. No digo que que la gente navegue en tu sitio sea malo, para nada, digo que es relativo a cada búsqueda, a cada nicho y a cada caso, y que Google siempre busca la mejor respuesta, y en muchos casos la mejor respuesta es la que no genera rebote en las SERPs y responde la búsqueda de forma rápida y satisfactoria! Luego también confirmo que es un factor más que necesitará de mucha información para servir como parte de un algoritmo (tendencias claras). Si en una página de compra venta la gente entra pero siempre acaba rebotando a otra página de compra-venta rival a comprar, probablemente sea porque es mucho mejor, y acabará adelantándola en las SERPs porque es mejor para el usuario. El usuario es el rey en Google. Nosotros hacemos black hat para subir arriba, y una vez allí, debemos ser tan buenos como los resultados que allí hay.
Un abrazo!
Yo lo que he comprobado en mis páginas webs es que la respuesta del usuario SI es importante, tal como dices en tu articulo. Es buena idea contratar un buen diseñador web
Gran articulo como siempre Chuiso.
Tengo una web similar a la que te han penalizado, la mía era mas generalista pero contaba con artículos de varias aplicaciones con 300 palabras describiéndola y los enlaces de descarga, la realidad es que día 9 de marzo empezó a bajar hasta perder el 90% del trafico, gracias a Google Fred, después de muchos cambios sigue igual.
Después de diversas mejoras queda esperar a que Google le de una nueva oportunidad, pero tengo la sensación que que sera para largo.
Ah! pero todavía creeis que Google posiciona según unos parámetros que no sean sus propios intereses económicos?. Ya hace tiempo que voy viendo como al hacer una búsqueda me salen en primera página resultados que no tienen nada que ver con mi búsqueda. Y lo que es más grave, pinchas sobre uno de los resultados y te sale una llamada de error o simplemente te dice que esta página no existe. Como nos engaña Google!!!
Yo me he encontrado con esa situación más de una vez!
Mmmmm tengo un sitio en donde los usuarios suelen mantenerse entre 42 a 46 segundos y desde hace bastante se mantiene en los primeros resultados.
Intento meterme en el papel del usuario así que las partes más importantes del post (lo que realmente interesa al usuario) lo pongo en color ojo y en negrita. Ya que si al usuario le da pereza leer todo el contenido se irá a otra página a buscar lo que ya se encuentra en el post, oculto entre tanta letra.
Mejor se lo doy en bandeja, para que se vaya más rápido pero que no tenga necesidad de visitar a la competencia. Hay que meternos en los zapatos del usuario.
Exacto, «hay que meternos en los zapatos del usuario»
Que cosas de la vida tengo un nicho de esos de descargar tenia cerca de 2000 visitas diarias, tiempo de pagina de 2 minutos, rebote en 47 %….¿ único defecto ?, lo mismo que tu ponía a bailar al user sin el enlace real de descarga. Una vez me percate que ese era el problema le puse los links de descargas y hasta el momento no levanta cabeza.
Mi enhorabuena!!! 🔝 el post. Yo lo digo siempre… Si Google te proporciona analytics… Que barbaridad de seguimiento tendrán ellos? Ya nos podían dejar echar un vistacito jajaja
Jejeje, yo alguna vez me siento valiento y reviso las patentes, pero duro 3 minutos leyendo jaja, imposible entender y sintetizar algo en la práctica. Es demasiado complejo, nosotros simplemente intentamos sacar cosas generales en claro.
Otro Genial post que demuestra que hay probar hasta la saciedad para aprender. Gracias por compartir tus experimentos y conocimientos.
Totalmente de acuerdo contigo, y nunca había pensado en ello, al fin y al cabo esto del SEO cada vez más se basa en el sentido común.
Yo ya vengo analizando esto desde hace tiempo y es totalmente cierto lo que dice Chuisete.
Tengo por ejemplo un sitio en el nicho de salud con un rebote que se podría considerar una mierda (85%) y que muchas personas pensarán que se trata de un sitio que no sirve para nada y que por ende debería estar en el inframundo. Sin embargo, es todo lo contrario, pues el sitio lo único que hace es subir como la espuma, posicionando casi todo lo que publico en poco tiempo y a día de hoy tiene 12.000 visitas diarias y creciendo cada mes. Además recibe varios comentarios y lo comparten mucho por redes sociales.
Hace más o menos 1 año cuando empecé ese sitio estaba realmente preocupado, pues el rebote siempre ha sido alto y nunca baja del 80-85% por más enlaces internos relacionados que ponga y pensando que esto era algo muy muy malo, le puse un código de hotjar para ver que era lo que hacían realmente los usuarios en el sitio y si ese rebote era que entraban a la web y se iban a Google inmediatamente o si al contrario pasaban un rato leyendo el contenido y cerraban (lo cual no es un rebote real).
Pues lo que noté fue que la gran mayoría de personas entraban al sitio y se quedaban hasta 30 minutos o más leyendo el contenido (lógicamente no en todos los artículos pasan más de 30 minutos pero si en muchos) y viendo los vídeos que pongo porque siempre les meto videos de Youtube al contenido. Con esto me di cuenta que realmente el contenido les parecía interesante, satisfacían sus dudas, algunos dejaban un comentario para resolver más dudas y se iban seguramente felices (me imagino, pues Google ha premiado el sitio subiéndolo cada vez más).
Lo más probable es que Google como bien dice Chuiso, le de mucha importancia al hecho de que el usuario no vuelva a las SERPS y entrar a más resultados, independientemente si navegó más por el sitio o no, pues si no vuelven al buscador quiere decir que ya lograron encontrar lo que querían.
Me pareció excelente este artículo, un saludo!
Excelente tu caso Camilo, sin duda opinamos igual!
Me parece un razonamiento muy sensato y a la vez muy valiente opinar en contra de la tendencia actual a enviar visitas desde algunas plataformas (personalmente a mi no me ha funcionado) que ahora están tan de moda.
Un saludo.
Buenas Carlos, ya hice experimentos en el pasado, que aunque no son todo lo elaborados que me gustaría, también me ayudaron a acabar con algunos mitos al respecto!
Muy buen articulo!
Desconocía el termino «pogo sticking».
Por las fechas que son la caída de tu proyecto, has analizado si la actualización Fred ha tenido algo que ver???
Un saludo
Buenas! La actualización Fred fue 5-7 días antes de cuando empecé a caer, pero podría tener que ver, ya que igualmente Fred se ocupó igualmente del contenido de baja calidad y los sitios enfocados plenamente a afiliación, y mi sitio no cumplía ninguna de estas 2 partes, pero creo que Fred también tuvo que ver con la experiencia de usuario
Totalmente de acuerdo, un claro ejemplo es si estas buscando en ecommerce una batidora braum 2345 en el momento que entres por ese enlace y el preciono te cuadre o compares con otra web es rebote seguro, al usuario en el momento que entra en tu web hay que distraerlo de forma dinamica para que se quede, por ejemplo el boletin, que es lo que tu nos has enganchado a todos los que estamos opinando, poco a poco te ganas la confianza del usuario y le animas a que se quede y participe en tu web.
Muy buen post Chuiso. A veces te ciegas con cosas como el rebote y el tiempo cuando las respuestas la tienes si usas un poco el coco y sentido común. Mis dies 🙂
Gracias Adri!
Hola Chuiso,
tienes toda la razón. Desde que Google tiene Rankbrain y utiliza la IA, creo que la experiencia de usuario consiste en conseguir exactamente lo que quieres que haga ese usuario y conseguir que con tu búsqueda haya resuelto lo que estaba buscando y no tenga que mirar en más sitios (da igual que sea info, que quiera comprar algo, descargar, etc).
Grandísimo artículo, como siempre.
Saludos de un Teamplatinero!
Muchas gracias Carlos!
Yo le verdad es que le hago poco caso a la tasa de rebote de analitycs y más cuando el mes pasado tuve un 11 y este ha sido de un 80%, no tiene sentido porque los resultados han sido mejores incluso este. Es muy potente Analytics pero hay muchas más formas de estudiar los resultados que basarse solo en los duración y el rebote. Muy interesante 😉
Cierto, Analytics igualmente puede dar información mucho más avanzada sobre embudos, conversión, tracking de bots, etc, etc.
👏👏👏 Precisamente hablaba de esto el otro día con un compi por Twitter y le decía eso mismo, que ojalá suba el porcentaje de rebote en los post en los que uso enlaces de afiliación. 😀
Muy bueno sí señor. Al final es dar al usuario lo que buscaba, y mi mejor métrica para eso es la que me da el banco, jeje.
Un saludo majo!
Cierto Rubén, jejeje. Un abrazo
Genial de nuevo, da gusto verte de vuelta. La lógica es aplastante y es algo planteado de manera muy generalista por todo el mundo, como tantos aspectos en SEO, pero sin duda, me parecen más sólidos estos criterios. A veces nos olvidamos de la complejidad del propio buscador. Me sigue quedando la duda del tráfico referido, ahí nos quedamos sin estos parámetros. Saludos!
Pues yo me quedo con la misma duda la verdad, pero según me comentaba Julio hace tiempo, si quiere, Google puede trackear prácticamente todo el tráfico de navegadores de casi todo el mundo. Por poner un ejemplo, hace tiempo se hablaba mucho del famoso safe browsing, producto de Google que filtra TODO y que está activado por default en todos los navegadores.
Yo coincido contigo Chuiso, yo tenia un nicho de Amazon que lo cree y después de meterle todo el contenido y hacerle enlaces lo deje en standby y poco a poco fue rankeando. Pero me di cuenta de que había muchas keywords que no superaban el top 10. Se quedaban en el 14, 15…
Entre en el nicho a ver qué pasaba…y cuál fue mi sorpresa? Que no tenía ningún enlace a Amazon recomendando el producto jeje entonces claro, el usuario entraba, leía el blog, y pensaría, y donde coño compro el producto que me estás recomendado capullo?
Pues nada, puse todos los enlaces, y a parte de que llegaron las primeras ventas, el solo empezó a rankear y hoy es el día que está liderando el sector.
Por lo tanto, mi blog a pesar de tener un contenido cojonudo, no estaba acabando de satisfacer al usuario y se iba a otra web. Creo que está bastante relacionado con lo que comentas en el artículo.
Está totalmente relacionado Alex, un caso que confirma un poco más esta teoría!
Joer maestro te has salido con este post!!
Me encanta como siempre con la practica, la experimentación y la experiencia demuestras las cosas.
Una vez más me has echo ver que en esto del seo NUNCA JAMAS se deja de aprender cosas nuevas.
Por otro lado la envidia sana me puede…Montas 20 nichos como quien se toma una cerveza…Jejeje
Un abrazo
P.D. tengo en mente dos tres vídeos que en cuanto saque un poco de tiempo creo te gustarán y mucho…Pero aún estoy en fase resultados…Jejeje y se notará que llevan team platino en las venas. Networking, Automatizacion, Scraping, Spam y Monetización.
100% black hat dedicado al diablo amarillo
Abrazo enorme
Olé olé, eso quiero verlo jeje! Gracias crack!
Me quedo con el buen resumen del artículo que hiciste en un solo comentario:
«Nosotros hacemos black hat para subir arriba, y una vez allí, debemos ser tan buenos como los resultados que allí hay.»
Creo que eso lo dice todo amigo, saludos.
Gracias Carlos!
Me ha molado mucho el artículo, esto demuestra que hay que tener mucho ojo con lanzarse a una estrategia absurda como «voy a intentar que los usuarios pasen más tiempo en mi página» haciendo tal cosa, poniendo tal contenido etc, porque si sólo te obsesionas en mejorar esas métricas de rebote y tiempo en página, a lo mejor no estás cumpliendo el verdadero propósito del usuario, se irá de tu página a otra de la misma temática, y empezarás a estar jodido como os pasó a vosotros mientras no teníais el link de descarga.
Muy buen post y muy bien explicado, gracias tío, como siempre eres el amo jeje
Cierto. Muchas gracias!
El porcentaje de rebote hay que mantenerlo lo más bajo posible y mejorar el tiempo de estancia en el sitio. Google trata a los sitios de forma independiente dependiendo de la temática y compara entre webs de la misma temática para ofrecer a los usuarios los mejores resultados como practica de luchar contra el blackhat.
¿Te has leído el artículo? Acabas de decir que hay que hacer lo que explico que no hay que hacer. Es absurdo intentar bajar el rebote y subir la duración de las visitas en un sitio que da información del peso de los famosos, por ejemplo. No tiene lógica que Google vaya a rankear mejor a esa web sobre otras que tratan la misma temática porque tengan mejor estancia y menor rebote en Analytics. Si has leído el artículo y piensas sobre el tema, verás que es absurdo seguir guiándose por la estancia y el rebote de Analytics, menos que viajemos de nuevo al 2012 y pensemos como en aquel entonces jeje.
No pienso en las métricas si no en la usabilidad y mejorar la experiencia del usuario y la verdad que veo muy contradictorio este post.
El peso de los famosos te lo da el propio Google ahora, pero en el caso de una web de ese tipo seguro que al usuario además de el peso le interesa la altura u otro información de otro famoso, seguro que una web con más permanencia con mayor y mejor calidad de contenidos posiciona por encima. Tendrá más contenido, más páginas, mejor linkbuilding, en definitiva mayor engagement y posicionara mejor que una web que solo vaya a ofrecer una solución concreta sin ofrecer más información adicional.
Un saludo.
Estás siendo incoherente en tus comentarios. Primero dices que Google tiene parámetros absolutos (más estancia, menos rebote), lo cuál es absurdo de pensar en 2017, diría hasta en 2014 sería absurdo. Luego presupones y das por sentado cosas, como que a la persona que le interesa un dato específico le interesan otros datos relacionados. Es una incoherencia. Estás pensando como un SEO y Google piensa en dar la mejor respuesta al usuario respecto a la consulta que realizó, así de simple. Si aceptas, aquí públicamente, me apuesto contigo 1.000 euros y le preguntamos por Twitter a Gary Illyes respecto a si tu afirmación es cierta
No me parece que este siendo incoherente, al disponer de mayor información y aumentar el volumen de la página añadimos más páginas indexadas y más enlaces externos lo cual ayudara a posicionar la web de forma global apoyándose unos contenidos con otros, frente a una web más específica. Me parece un comentario bastante razonable Chuiso. El tema de la apuesta me parece un tema bastante ambiguo para apostar y seguro que ambas partes tenemos parte de razón.
Un saludo.
Ok Daniel, un saludo. Me exalté un poco, pero es que estaba/estoy bastante seguro de que mi postura al respecto es cierta jeje.
Todo el sentido del mundo, la verdad. Si es que estamos todos tan preestablecidos y condicionados por lo que leemos cuando llegamos tarde que aplicar el sentido común a veces es imposible. Muy muy bien por despejarnos el asunto y confirmar algo que los que tenemos el Tiempo real de Analytics puesto en una pestaña mientras curras queríamos olérnoslo.
Gracias Joan
Hola Chuiso!
Una duda que tengo desde hace bastante. Estoy completamente de acuerdo con el artículo pero, mi forma de buscar, por lo ansioso que soy suele ser siempre la misma. Pongo la búsqueda en google y abro entre 3 y 8 links de la primera página en pestañas. Después las reviso todas.
¿Cómo crees que evalua eso google? Yo supongo que lo tiene controlado y dice, ya está aquí el ansioso, paso de él, este no lo cuento…
¿Qué opinas?
Gracias!
Seguro que también lo tiene controlado. Otro lector ha dicho lo mismo jeje, y yo mismo lo hago, pero creo que nosotros tres conformamos una minoría, las personas con alta experiencia en Internet.
Popa. Leí los comentarios por encima y no lo vi…
Hoy me he despertado con una iluminación que puede que tenga sentido.
Dices que estás esperando a que Google le de otra oportunidad a la página porque la bajó bastante… ¿has probado a darla de alta con otra cuenta en webmastertools?
Pienso que al final es un algoritmo y quizás un usuario nuevo fuerce toda la maquinaria otra vez…
Ahí lo dejo y gracias por tu curro y tu tiempo!
Y si me estás leyendo y no eres Chuiso, visita TeamPlatino, que merece la pena! 😉
Hostias, qué buena idea, sacarlo de su cuenta actual, meterlo en una nueva, y forzar el rastreado de nuevo con la herramienta de rastrear URL 😀 Muy buena idea tío, voy a juntarlo en un experimento con la idea del 301 de Peris!
jajajaa muy bueno
Muy de acuerdo con el artículo, como siempre vamos… Tengo varios clientes con ecommerce desde varios años y no hay co**nes a sacarles de esas métricas que se están quedando obsoletas.
Sobre todo el tiempo en el sitio… que más da? si compra? Si entran y en 3 clics realizan la compra durante no más de 30 segundos quiere decir que la experiencia de usuario es genial!!!
Exacto
Corroboro todo lo que dices, todo mis sitios nicho tienen un rebote superior al 80%, siempre lo he considerado normal y nunca me ha preocupado lo más mínimo, hasta la fecha siguen subiendo.
Un saludo!
Gracias Oliver!
Hola, crack
El % de rebote y la duración de las visitas, dependerá del tipo de web que tenemos entre manos, me explico. Yo tengo 2 Tiendas online y una web corporativa, las tiendas tienen un % de rebote del 25 o 35% y la corporativa entre un 20 y 28%, así que te cuento, la tienda 1 tiene unas ventas de unos 500 a 800€ mensuales, la tienda 2 tiene unas ventas entre 50 y 150€ mensuales, la tienda 1 tiene una tasa de consultas de 150 al mes y la tienda 2 unas 400 al mes, la tienda 1 es la tienda de la web corporativa, así que la tasa de rebote (para mi) de la corporativa es significativa, por que me dice que se van a la tienda. La duración de las visitas, estan tienda 1 entre los 3 y 5 minutos, tienda 2 entre 1 y 3 minutos, corporativa entre 1.7 y 2.5 minutos, así que creo que estoy en los parámetros que para mi en particular son buenos. y eso que solo hace 12 meses que me he puesto hacer SEO, pero estoy en un nicho de mucha competencia para KW’s, así que tiro por long tails y TIERs. Por otra parte tengo mi blog personal en el cual he empezado hace una semana, y puedo decir que tengo una tasa de rebote del 45% y una duración de pagina de casi 7 minutos, creo que son excelentes noticias en cuanto a experiencia de usuario. Justo esta semana empezare con el SEO (una ayuda para subir rapido se te gradeceria, cabron!), pero voy piano, piano.
Nada, si quereis os dejo mis webs del trabajo y la personal. asi podreis ver como estan confeccionadas.
plasticosferplast.com
muchoplastico.com – Tienda 1
un Saludo, cabron! eres el puto crack!
Bueno… en primer lugar tengo que contaros algo. Hace años ya, estaba buscando por Internet la manera de ganar algo de dinero extra porque siempre he sido una persona inquieta para los negocios y me encontré con el SEO.
Al principio me sonó todo a chino antiguo y la verdad es que no encontraba nada que fuera realmente útil para mí, incluso puse «SEO» en Google y me salió en el primer resultado una pagina de pájaros, era todo muy confuso… Estaba leyendo un post en forobeta y alguien decía algo así como… «Si quieres aprender de una manera sencilla y divertida visita la web de Chuiso» y desde un primer momento me llamó la atención ese nombre.
Me leí todo el blog, me dio un chute de energía que te cagas y me bajé su guía gratis para la creación de Micronichos (Monté 3 en 1 día). Pero por circunstancias me desanimé un poco y la rutina me llevo a despistarme del tema.
Poco me podía imaginar yo en aquel momento, que iba a aparecer mencionado en este blog.
Ya se que seguramente cuando estés leyendo esto vas a pensar… «QUE PELOTAAAA», pero me tenéis que entender cuando os cuente lo siguiente. Yo trabajaba en unos grandes almacenes… (Ya te imaginarás cuales si vives en España), me dediqué en esos años a vender de todo… Muebles, electrodomésticos, ordenadores, terraza y jardín, deportes, mercería (Las señoras me pedían hilos y lazos que tenía que cortarles y medirlos con un metro de madera), y en la ultima etapa estuve vendiendo vaqueros de Levis y demás marcas. Esto duró 10 años, desde los 22 a los 32 que lo dejé para dedicarme a esto de lleno.
No es que estuviera mal… pero yo quería ser SEO, ese era mi sueño y como dice Chuiso en este post, aquí no hay ningún experto, hay que seguir haciendo cosas cada día, pero ahora por lo menos vivo del SEO.
Y aquí vienen las gracias, y la frase está manida pero es totalmente cierta, «Es de bien nacido el ser agradecido». Chuiso me ha dado la oportunidad de trabajar en proyectos chulísimos para el, he podido formarme día a día con su experiencia y sigo haciéndolo y está siendo una pasada, pero además de todo eso, no me puedo olvidar de la comunidad que se ha creado alrededor de su persona. No me voy a poner a decir nombres porque no pararía pero, lo de Teamplatino.com es de traca, vaya comunidad, todo el mundo se ayuda, se descubren cosas nuevas cada día… no se… es flipante. (Me encanta leer esos 2000 mensajes cada mañana buscando las perlas del día en el grupo de Skype).
Respecto al articulo, una pasada, (fue una cagada lo del enlace), pero todo esto sirve para seguir aprendiendo y con esto hemos sacado muy buenas conclusiones. ¡Me alegra haber colaborado un poco en todo esto!.
Os dejo ya… porque me estoy viendo con power y puedo acabar escribiendo un libro. Abrazos!.
Jeje, qué crack compañero! Que alegría tu comentario, un abrazo fuerte!
Hola Chuiso.
Actualmente trabajamos 10 páginas webs, te puede decir que con un 90% de certeza, que el rebote y el tiempo de permanencia es vital para el SEO.
Es curioso eso del Dwel Time pero yo tengo una forma de hacer búsquedas que igual lo hace mucha gente.
Cuando hago una búsqueda abro 3 o 4 enlaces de lo que me ofrece Google en una nueva pestaña cada uno y luego los leo. Entre cada click pasa medio segundo pero es posible que lo que busco realmente esté en el primero de ellos, que con este algoritmo, Google consideraría lo contrario.
En fin, que son muchos factores en los que fijarse y no hay una regla fija
Sin duda tu visita medible no sería muy tenida en cuenta jeje, piensa que lo que tú haces (que yo también lo hago jeje) no lo hacen la gran mayoría!
Muy buena aproximación al tema.
Otro ejemplo como la Wikipedia es la RAE, tiene muy muy poco contenido en cada entrada y, sin embargo, rankea correctamente porque entras, encuentras lo que buscas y no necesitas buscar más.
¡Gracias por compartirlo!
Totalmente cierto!
Hola Chuiso ! yo te sigo desde hace poco, y es el primer comentario que hago,así que no me lo tengas mucho en cuenta. Igual acabaré en tu curso…
La cosa es que todo lo que dices tiene mucha lógica. Pero mi pregunta es : Cuando construyes una página, sobretodo si ya tienes experiencia en otras, ¿ no deberías hacer una previsión de cuál tendría que ser tu tasa de rebote óptima y la duración media de las visitas ? En la previsión ya deberías tener en cuenta todo lo que dices, y si vas desviado, entonces ya sabes que algo no va.
Bueno, hasta la próxima. Un placer,
Buenas! un placer,
Lo difícil en ese caso es cómo saber si esa previsión es acertada, o cómo saber cómo calcularlo, creo que es mejor centrarse en que la página sea perfecta para el usuario
Buenas crack! Llevo ya algún tiempo leyendo tus post y me parecen de lo mejor que se puede encontrar en estos temas. Ahora al grano.
Estoy totalmente de acuerdo con tu conclusión y me parece de lógica aplastante lo que dices. Pero ahora te voy a poner en una situación que me viene a la cabeza. Llevo ya varios años trabajando y cada día aprendiendo de este mundo de la programación, el SEO, el marketing Online…etc. Tengo una empresa que se encuentra en un nicho con una competencia brutal! «Cursos de idiomas en el extranjero» y aún sigo rompiéndome cada día la cabeza a ver como consigo ponernos en top 10.
Pero vamos a la cuestión que nos interesa, según tu experiencia y conclusión, que pasa si un visitante esta buscando un producto que por lo normal se compara mucho, es decir entra en una web, ve lo que necesita, incluso puede llegar a dejarnos un lead, pero inmediatamente después vuelve a google y hace click en el siguiente SERP, para comparar, y así sucesivamente. ¿como se toma esto google? ¿esta penalizando y haciendo que bajes posiciones, porque según esta experiencia no encuentra lo que busca y va a otra web? ¿como podemos combatirlo?
Según mi lógica lo que pienso en estos casos, es que el gran algoritmo de google si que tiene en cuenta la interacción en tu web, y quizás el rebote y el tiempo de navegación, pero en mezcla con el «Pogo sticking y Dwell time» (que te doy las gracias porque no los conocía), es decir que es una mezcla un poco compleja de estos datos para sacar sus conclusiones.
¿Qué opinas?
Buenas, un saludo!
Bueno, lo que me comentas podría ser un caso puntual, pero estamos hablando de recoger datos de cientos de usuarios. Puede que alguno haga lo que comentas, pero la mayoría acabarán en el resultado que eligen finalmente. Es pura estadística. Además, todo esto del pogo sticking y el dwell time, como comento, son factores añadidos dentro de un algoritmo que tendrá muchos más filtros y programaciones para ser bastante acertado. Ahí ya solo podemos conjeturar.
Hola, precisamente estaba pensando lo mismo, en mi caso, hay mucha competencia tanto en precios como en calidad de productos, envíos, etc… estoy seguro de que tanto yo como mi competencia, tenemos una tasa de rebote alta porque al final lo que buscan la mayoría es el precio y aunque terminen comprádote, se han paseado por 2000 webs comparando.
Hace poco tiempo, alguien de google adwords, me estaba ayudando con mi anuncio, me comentó algo que me abrió lo ojos, me dijo que tenía demasiado contenido en mis páginas, que la gente quería ir al grano, que cuando alguien entra en tu página para comprar algo quiere ver el botón «comprar» enseguida, que los formularios de consulta han de estar al principio y no al final, etc… en conclusión, que quitara contenido de relleno y se lo pusiera mas fácil al cliente. En pocas palabras, a veces menos es mas y hay que ponerse en el lugar del visitante, como bien a dicho alguien anteriormente.
Yo estoy de acuerdo totalmente con Chus pero en ciertos casos como el de Daka o el mío propio acojona un poco, por otro lado, lo mismo que te puede afectar a ti, tambíen le afectará a tu competencia, dicho esto, si es malo para ti también lo será para ellos.
No soy ningún experto en el tema, llevo desde 2005 con mi web, una solo, jeje, empecé de cero y todo lo que he aprendido en estos años a sido a base de darme tortazos y probar y leer y comparar, esto es muy duro e infinito, se agradece poder leer estos post y aprender algo nuevo.
Espero no haberme enrrollado demasiado.
Saludos a todos y felicidades por el post, muy bueno.
Hola, puto crack!!!
Estaba leyendo en uno de tus blocks, como realizar una PBN gratis, y he seguido tus consejos, he encontrado 4 dominios de blogspot en error 404 (quien quiera saber, que se busque la vida pero no esta lejos, jajajajaja), asi que los he echo míos, y me disponia a llenarlos de contenido y he visto que no han perdido su PA y DA, el más bajos estaba en DA:54, así que he pensado, y si trasteo, y he logrado realizar un hermoso 301 a mi web a posicionar, así que tengo un TIER1 con 6 webs con autoridad alta, pues nada, solo comentarlo, por si sacar alguna idea para un post. Yo me voy a Scrapear un rato.
Saludos, Cabron, no seas tan bastardo y tarda menos en publicar.
Jordi
Buenas Jordi! craso error, el DA en un subdominio blogspot siempre va a ser alto, porque es la autoridad del dominio raíz (blogspot.com.es, blogspot.com.mx, en función de tu localización). Tienes que fijarte en el PA y sobre todo en los enlaces entrantes del sitio, que es lo que aporta más valor.
Ok, Lo he comprobado y su PA el menos es de 21 todos los demás son mas altos, asi que por intentarlo no creo que pase nada, un saludo y estare a tento a lo que digas. Un Saludo
Google quiere que el usuario este satisfecho. Lo mismo pasa con adwords, si hacen click y se van de la pagina y buscan nuevamente… ya sabes, empiezas a pagar mas, bajas de posicion… la clave es pensar como el usuario y que necesidad tenemos que cubrir con lo que ofrecemos.muy buen articulo como siempre! Nos vemos en TP
Muchas gracias por tu opinión Daltron!
Cierto, lo pude comprobar en mis carnes, pagas mas por menos, terrible experiencia.
Es bastante sencillo, en realidad: Google no se basa en parámetros absolutos sino relativos.
Es decir, que compara las métricas de cada web (rebote, etc) con la media de ese nicho, o con las mejores páginas de ese nicho, y a partir de ahí extrae conclusiones.
Así es muuuuy sencillo para él 🙂
Por eso no valora igual el tiempo que un usuario permanece en una página si busca «CIF de Telefonica» que si busca «cómo construir una barbacoa».
Conclusión? Las de siempre: crea contenido de calidad y experiencias de usuario de calidad, para conseguir ratios mejores que los del resto ed competidores de tu nicho (y olvida todo lo demás)
Coincido plenamente, como he intentado plasmar en el artículo, excepto en lo de «(y olvida todo lo demás)» jejeje
La verdad que nunca lo había visto así. He sido siempre de pensar que:
Porcentaje de rebote alto = Malo.
Porcentaje de rebote bajo = Bueno.
Muy simple, si xD. Me ha gustado tu artículo, tienes toda la razón, ahora lo veré diferente.
Exacto, demasiado simple para un algoritmo jeje
En mi blog da la casualidad que el articulo que mejor posicionado tengo (top 1 para su key y top 1 para casi todas las long), tiene una tasa de rebote altisima, casi 86%. Asi que coincido.
Hey Chuiso!
Te leo bastante, pero nunca comento. No obstante, ¡he decidido cambiar eso hoy!
Totalmente de acuerdo con lo que comentas sobre la «experiencia de usuario» (G. Analytics) y el SEO, y si te soy sincero, es algo a lo que nunca le he prestado la menor atención. La clave, como comentas, es dar soluciones a los usuarios que llegan a tu sitio buscando X información o la solución a un problema concreto.
¿Tienes pensado esperar a ver qué pasa con ese dominio (no creo que repunte…) o te vas a llevar el content a otro dominio?
Hace no mucho, el amigo Fred me reventó un dominio nuevo (páginas vacías, «loren ipsum» y mierdas por el estilo…), me llevé y mejoré todo el content a otro domain muy similar (EMD con un nuevo custom TLD bastante chulo), le hice las 301 pertinentes y el sitio empieza a subir como la espuma de nuevo… Eso sí, el dominio va cargadito de links molones hasta las muelas… ¡Ya tú sabes! 😛
Nos vemos!
Buenas Daniel!
Yo tampoco creo que repunte, ya le hemos dado un mes de tiempo y no sube, aunque sí es cierto que ha subido posiciones en las SERPs (estaba en 3º-5º, se fue a 40º, y luego subió a 15º-20º, pero no hay mucha diferencia entre estar 20º y 40º jeje).
Sobre lo que comentas del 301, me parece una idea muy chula y quizás lo hagamos, sería material para otro artículo muy chulo jeje.
Un abrazo!
Fenomenal post, como siempre. Gracias por compartir.
Esto es una sospecha y una paja mental mía, pues hay cosas que nadie las sabe y forman parte de lo que se llama «secreto industrial», o sea en este caso, el algoritmo de Google.
Vamos a llamarlo ICU (Índice de Cabreo del Usuario). Suponemos que este es el índice real de Google que dice si una web es una mierda o no.
Este índice está alto cuando: 1) Te ofrecen el oro y el moro, vecinas fáciles en tu barrio, ser millonario tocándote cierta parte de tu anatomía; 2) El sitio es un caos y no sabes de que va; o 3) El sitio tan mal hecho que hasta te hace daño a los ojos.
Este índice estaría bajo cuando: 1) El sitio es maravilloso y vuelves cada poco tiempo; 2) El sitio no es lo que buscas, pero lo mismo hay algo que te interesa; o 3) Es un sitio bueno, pero no forma parte de mis intereses.
En ambos casos, tanto por lo bueno, como por lo malo, el rebote puede ser alto o bajo (vuelves a la web que más gusta y te sales en 1-2 segundos porque no hay nada nuevo, o te quedas pegado literalmente). ¿Cómo lo sabe Google? Has adelantado algo en el artículo, pero creo que lo hace con gente real, observando y cuantificando sus actos y reacciones, y de estos datos saca su codiciado algoritmo. Es una sospecha.
Un dato, para la Ciencia que investiga Chuiso, pues la investigación en SEO nunca acaba, mi web es un sitio pedagógico, no como la Wikipedia, pero con muchas cosas comunes (descuido del SEO, repetición de textos (jurídicos, leyes científicas), imágenes pesadas para que se vea lo que se explica) y el crecimiento es muuuuy lento, pero seguro y constante.
Un abrazo, crack, encantado de volverte a leer!
Lo mismo digo Cuvsi, es un placer también volver a leer tus aportes!
Definitivamente los valores de analítica son una guía , mas no un valor absoluto, la experiencia del usuario sigue siendo el principal factor para subir en las serp, tengo una web que tenia 2 o 3 keywords en los 3 primeros lugares, realizando el seo whitehat normal que uno siempre utiliza, de unos 3 meses hacia acá empece a ver que hacia la competencia y todos hacían la misma cosa, en este caso era que la información que daba están en un pdf, para estas keywords o competencia la actualización es semanal y el 40% de las visitas es de smartphone, pues decidí mostrar en jpg lo que los demás mostraban en pdf, y zuas mágicamente en 1 mes tengo 25 keywords en la primera pagina , subí de 3.000 visitas a 23.000 visitas diarias en un abrir y cerrar de ojos, fácil deducir lo complejo y engorroso leer un pdf en un teléfono , se convirtió en una experiencia agradable verlo fácilmente en un sencillo jpg, el seo y la experimentación van de la mano.
Saludos Chuisete tremendo post y que continúen los éxitos
Buenas! y muchas gracias por tu curiosa experiencia!
Probaste en darle mas enlaces?
De momento no, los enlaces se estaban creando de forma normal, pero estoy probando con la 301 😉
te cuento un caso seguro te paso porque tenes mas experiencia, hace unos meses tenia una web de una app unas 600 visitas, la cosa es que penalizaron varias web donde tenia reseñas, y a los dias bajo de posiciones, estaba en la primera página, paso a 2 y luego 3ra. crees que con reseñas se levantara?, no fue penalizada, por otro lado le hice un redirect 301 y volvió a sus posiciones y hasta mejor, pero duro 2 meses
El 301 es lo mismo que yo he hecho:
http://prntscr.com/f31zl6
Y ha funcionado. Probablemente te volvió a bajar de nuevo por Fred, Panda, experiencia de usuario… Dale una vuelta a cómo está orientada, concéntrate en dar lo que busca al usuario y vuelve a hacerle otra 301.
Hola de nuevo, gracias por estos post, dan mucho que pensar, cuvsi comenta algo que también me suena mucho, como ya he comentado antes, llevo mas de 10 años con mi proyecto, he pasado miles y miles de horas dedidado a mi web, (solo una) envidio a todos los que llevais un motón de ellas, no se como podeis hacerlo, sois máquinas, no hay otra explicación, jejeje.
Yo empecé de cero total, con front page, era todo un misterio y super dificil, el mero hecho de crear un botón podía ser un día de trabajo, una odisea, jejee, poco a poco fui entendiendo el funcionamiento, observamdo a la competencia y con mucho mucho tiempo, empecé a ver resultados, gané mucho dinero (para lo que yo esperaba) también di a ganar dinero a algunos amigos.
Ya podeis imaginar lo cutre que eran las páginas que creaba, lo curioso era el resultado, quizás no había tanta competencia como ahora, o simplemente, las demás páginas de mi competencia también eran de poca calidad, no lo se, pero la verdad es que los resultados eran extraordinarios, era raro el día que no me pedían 5 o 6 presupuestos.
Mas adelante compré otro dominio y probé con Jombla, otra locura, no fué bien y lo abandoné para dedicarme solo a una cosa, hace unos 5 años decidí modernizar la web instalando un Worl Press, la verdad es que ha ganado a la vista, pero por miedo a perder lo que estaba funcionando, dejé una parte antigua e instalé el WP en la home, después de 5 años hay alguna página de las antiguas que sigue estando en los primeros resultados de gogle, y no me refiero a «bar pepito en mi pueblo» me refiero a «reparación de xxxxx en Barcelona» (he puesto xxxxx por no hacer publicidad) el caso es que siendo algo antiguo y cutre, además de no estar optimizado para móviles, sigue teniendo mejores resultados que lo nuevo, estándo mucho mejor, tanto en lo visual como a nivel de seo, teniendo en cuenta que el propio WP ya ayuda en muchos aspectos, además de utilizar algunas herramientas como el yoast premium, optimizando las imágenes y demás cosas que quizás sean básicas.
La cuestión es que hago lo indecible por evolucionar lo nuevo y no me puedo quejar, lo que no comprendo es ¿porqué lo viejo y cutre sigue estando mejor posicionado que lo nuevo? (en algunos casos) Son de aquellas cosas que no tienen mucha explicación, por lo menos para mi. Como dice Cuvsi, no teniendo en cuenta muchos aspectos técnicos, curiosamente tienen mas éxito que lo nuevo con mas calidad. (todo en el mismo dominio)
Yo no puedo compararme con vosotros a nivel profesional, ya que no he estudiado, la verdad es que no entiendo muchas de las expresiones que utilizais, es cierto que me apasiona, pero a la vez me acojona, llevo casi 12 años con esto, todos los días, (los 365 dias del año) unos días mas y otros menos y me doy cuenta que no se nada, esto es acojonante.
La verdad es que envidio a los profesionales como vosotros, porque esto es la hostia, me ha pasado de todo, igual algún día escribo un libro con mis peripecias, jejeje tengo millones de dudas y preguntas, pero me he dado cuenta de que esto no es una ciencia cierta, aquí las cosas no siempre son lógicas, por eso me gusta este post, es justo lo que yo pienso.
Bueno, no se si me he desviado un poco del tema, la verdad es que me lio a hablar y no paro, tengo muchas experiencias própias y a la vez tantas dudas, cualquier día me explota la cabeza. 🙂
También he de decir que en ocasiones me he puesto en manos de supuestos profesionales para evolucionar, porque yo no se mas, y me he dado cuenta que no eran tan profesionales, simplemente dominan algunos temas mejor que yo, pero con escasos resultados, el mundo seo es eso «Un Mundo»
Hola Manel me gustaría contactar contigo por el tema de web reparaciones de…
tengo web de ese tipo y penalizada por Fred o eso pienso al menos por las fechas .
Me pregunto si Chuiso nos permite dejar email para contactar
De cualquier forma en el comentario queda mi email y si lo lees le pedimos el favor a Chuiso
Muy útil tu artículo Chuiso . Por mi parte pienso que es bueno tener bajo porcentaje de rebote . Tengo una web de finanzas y me ha subido las visitas bajando el porcentaje de rebote
Email: [email protected]
Siempre hay que recordar que GA es únicamente una guia para saber el estado de salud de nuestras páginas y por consecuencia de nuestro sitio. Y no como muchos piensan que los resultados de GA sirven para posicionarse mejor en las serps y que si alteramos esos resultados seremos recompensados con una mejor posición.
¡Buen artículo!
Gran contenido, como siempre! ¿Usted cree que los sitios pequeños (dirigidos a la venta) todavía tienen relevancia antes de que Google, o están perdiendo terreno cada vez más?
Gran abrazo
Buenas Sabato, la verdad es que no tengo mucha idea, pero creo que no, Google no se enfoca en quitarle terreno a un tipo de sitios u otros, yo creo que se centra en la experiencia de usuario, sea como sea el sitio en cuestión.
ChUiso, Realmente este post es uno de los mejores que tienes en los últimos meses y una prueba de ellos es la cantidad de comentarios que tienes hasta ahora (Experiencia de usuario que mola)
Lo que comentas al parecer Fred lo trajo incluido, porque desde que llego he visto movimientos en las Serps que sugieren que la experiencia de usuario toma mucha mas importancia que antes, creo que este año tiene el doble de importancia que tenia el año pasado… Te parece?
Por cierto, prueba usar los 301 un colega lo acaba de probar hace 4 semanas y el resultado se esta comenzando a notar.
Un abrazo, crack !
Buenas Daniels! Pues mira esto (hice la 301 hace unos días):
http://prntscr.com/f31zl6
Nuevo post en breves, jajaja!!
Menudo subidon!
Como te comente funciona por ahora:) jeje!
Eres un crack!
Abrazos!
Vamos chuiso, un blackhatero como tu no creo que vino a conocer el truco del 301 recientemente, si lleva funcionando desde el 2013-2014 y quizas desde mucho antes (yo lo conoci por esas fechas y no soy SEO) que te lo tenias guardado es otra cosa, pillin xD.
Ya mas abajo conte mi experiencia sobre eso y la verdad si puedes volver a ser penalizado, pero todo depende de que hayas hecho mal, pero es como una segunda oportunidad (o tercera, cuarta, segun mi experiencia puedes redireccionar varias veces usando los dominios penalizados apuntando al nuevo), si solucionas los errores graves que tenia tu web y redireccionas, puedes volver a la cima por mucho tiempo mas ;), saludos
¿Dónde dije que lo conocí ahora? Llevo hablando años del 301 jajaja. En el primer evento Black Hat que se hizo en España, en 2013-2014, ya hablamos de las técnicas 301 y doble 301!
Como siempre el responder rápido y sencillo al usuario va a ser la clave de todo. Y si le enganchas y sigue leyéndote mejor que mejor.
Muchas gracias Chuiso por argumentar todo esto de manera sencilla para novatillos SEO como yo.
Un saludo Chuiso
Buen post chuiso. Yo he probado con varios codigos que se implementa en tu analytics para darte la tasa de rebote real, dandote rebote solo si se van del sitio antes de x segundos, pero ninguno me funciono de todos los que probe.
Si alguno te funciona, pasalo 😉
Coincido totalmente con tu razonamiento.
Siempre he pensado que la mejor experiencia de usuario es darle al usuario lo que busca de la manera más rápida y fácil posible, y en mucho casos eso implica un % de rebote elevado.
Sin ir más lejos, me acuerdo de las páginas del tiempo. «Tiempo en Barcelona mañana», entro en el primer resultado, me estoy 5 segundos para ver si hace sol, llueve o nieva, y me voy. En ese momento si la web me ha dado lo que busco, doy por cerrada la búsqueda. En dicha web el rebote puede ser altísimo pero me ha dado lo que yo buscaba, por lo que tener un % de rebote alto no es signo ni de bueno ni de malo, sino mi comportamiento después de salir de esa web (si sigo buscando lo mismo o si me voy a otra cosa mariposa).
Me alegra que este tipo de razonamientos vean la luz, estaba un poco cansado de los SEOS que comentan que la experiencia de usuario te posiciona mejor… cuando para mí, lo que tiene más sentido es ofrecer y solucionar la consulta del usuario de la mejor manera posible (en tiempo y modo).
Saludos!
Muchas gracias por tu comentario Alex! Un abrazo
Hola Chuiso, ¿qué pasa con la sección VIP? Pone que está en remodelación, ¿va a estar pronto operativa? :'(
Tengo pendiente ponerla a tope Lore!
Buenas Chuiso, lo primero decirte que me encanta tu blog y lo segundo que ya podías cargar mas tu cutre video blog 🙂 es broma. Tengo que decir que cada vez es mas dificil utilizar herramientas o tecnicas blackhateras. Ahora ya yo creo que solo nos queda el PBN haciendolo con mucho cuidado también y por la linea recta… acabo de desintalar el scrapebox, el no hands seo y ya no me keda nada que investigar mas que sacar contenido por la face de regreso al futuro y hacerlo todo por el libro y por mis experimentos darle a las redes sociales de comer como las gallinas para no alertar mi PBN. Me he quemado el 70% de mis dominios por novato mas que nada del black hat. Mi pregunta es…que te parece si hacemos una red social para intercambiar enlaces pero de una forma elegante…seria no intercambiar enlaces sino artículos/noticias enteras. Nose ya sabes que son dos segundos instalar una plantilla de este tipo y empezar a comercializar articulos de nuevo contenido con enlaces (yo te hago un articulo tu me lo haces a mi) (las gallinas q entran por las q salen).
Diferentes hostings, ips, cuentas, …se lo pondriamos muy dificil a los animalitos de gooogle..
Jejeje proyectos así no suelen salir bien, es muy difícil coordinarse! Te lo digo por experiencia!
Hola Chuiso! Como lo llevas? Yo arrugado a la izquierda.
Pienso lo mismo. Todo depende de la experiencia de usuario de cada web. En un reciente post en mi web analizo varias posibles experiencias de usuario que serian razonables.
Por ejemplo la experiencia en el sector de profesionales va ser muy distinta a la de un blog de contenidos. En la primera muchas veces la permanencia en pagina va ser de apenas segundos. Hasta que ves el telefono del profesional y llamas.
Por lo tanto unas metricas normales serian 30 segundos de permanencia y 1 pagina vista. Y aun asi no serian malas metricas porque cumple con lo que el usuario busca.
Buen post!
Exacto Miguel! Le echaré un ojo al post
Muy buen post, como todos los que haces Chuiso!
Yo creo que sí, mi web tiene alto rebote y aún así no baja posiciones! Y yo siempre pensando en reducir el rebote…
Google es muy bueno y complejo pero por suerte tiene algunos resquicios gracias a los cuales sobrevivimos los que nos dedicamos a este trabajo tan ingrato de conseguir visitas. Yo llegue a la conclusión de que el porcentaje de rebote no es tenido en cuenta por google en el posicionamiento gracias a los subdominios. A mi me gusta trabajar con un dominio principal en el que aparece toda la información importante de la web y luego subdominios en los que creo artículos o textos apuntando hacia el dominio pero sin enlaces entre ellos por lo que la salida del usuario si quiere seguir en la web es siempre obligatoriamente hacia el dominio. Como google considera los subdominios como algo completamente distinto al dominio principal cuando un usuario pasa de un texto del subdominio al dominio es considerado como rebote por lo que estos artículos tienen siempre rebotes muy elevados. No son del 100% porque si el visitante vuelve hacia atrás y carga de nuevo la misma página deja de ser rebote pero si no si que lo serían. No es un rebote ni bueno ni malo, simplemente no existe más que en las estadísticas de google y sin embargo tengo cientos de estos textos en primeras posiciones lo que me da pie a pensar que no es uno de los puntos considerados por google.
Dicho esto, igual que considero que el rebote no es importante en cuanto a posicionamiento si que es uno de los datos más relevantes que tenemos nosotros para manejar nuestra web porque yo creo que en general la mayoría queremos que la gente vea el máximo número posible de páginas y este mucho tiempo en nuestra web y si tenemos un rebote del 50% eso significa que la mitad de las personas que logramos atraer con tanto esfuerzo se han ido sin hacer lo que nosotros queríamos que hicieran. Bajar el rebote es beneficioso porque significará que tenemos más usuarios satisfechos.
En cuanto al Pogo sticking y Dwell time es un asunto sobre el que tengo ciertas dudas porque puede llegar a ser un dato tan poco fiable para google como el rebote y no creo que google juegue con datos poco fiables. Por ejemplo yo cuando hago una búsqueda no pincho en un enlace lo veo y vuelvo atrás a pinchar en otro, sino que hecho un vistazo a los resultados de google y abro al mismo tiempo en distintas pestañas varios y luego los voy revisando muchas veces manteniéndolos abiertos todos mientras los ojeo. Es un ejemplo de un caso en el que google no podría saber cual de los resultados es el que a mi me ha gustado y cuanto tiempo ha pasado. Otro ejemplo: yo después de ver unos cuantos resultados si no he encontrado lo que buscaba cambio la búsqueda y hago una nueva con distintas palabras. Si las búsquedas fueran similares google podría relacionar que sigue siendo lo mismo, pero si las búsquedas son distintas para google el último resultado que hubiera visto sería el bueno mientras que para mi no lo es.
Eso pasa en mi blog de Historia. Desde el principio el rebote fue altísimo, más del 85%. Entonces trabajé los enlaces internos y conseguí rebajarlo algo pero no mucho. En abril estaba en el 79.30%, pero la duración de la sesión es de 2:01, lo cual significa lo que dices, que la gente encuentra rápido lo que busca, lo lee y se pira. El índice de nuevas sesiones también es muy alto.
Me gustaría que navegasen más para generar más impresiones y clicks de adsense, habrá que pensar algo para generarlos. ¿alguna bastar-idea? jeje
Buenas David! El truco más empleado suele ser hilar el final de cada post y relacionarlo directamente con algún otro artículo de tu blog, que en tu caso no sería difícil jeje, sobre todo si dejas al lector con curiosidad, ejemplo: artículo sobre los indígenas, y al final del artículo mencionas. «Y bueno, si te parece interesante, ¿crees que la esclavitud ya estaba implantada o la trajeron los españoles? Aquí lo sabrás.» y le cascas el enlace al artículo en el que hablas del tema.
Y si le ponemos a esa web un enlace desde una noticia que aparezca en Google News? Tal vez eso te aporta un granito de arena. Si te parece con gusto podemos probar!
Buenas Johnny! Échale un ojo al siguiente post que lancé 😉 con la 301 lo fixeé 😛
Pues muy bueno que se cuente desde la experiencia personal para que, en efecto, veamos que este tipo de cosas si pueden pasar y derribemos (sobre todo los novatos) uno que otro mito que se nos ha colado por ahí. Gracias Chuiso, muy buen aporte.
Gracias Chuiso este ha Sido un aporte importantísimo. Un análisis muy acertado por la lógica con la que estás fundamentando el caso.
Anteriormente me había dado cuenta sobre el caso de Wikipedia, que aunque éste super enlazada internamente debe de tener un porcentaje de rebote tan alto como el que casi nadie imaginaria que pudiera tener.
En lo personal tomaré estás recomendaciones para seguir haciendo evolucionar mis Webs.
Muchas gracias!
Hola chuiso, excelente texto como siempre, te tengo una pregunta, analizando tu post cuando hablas de la red que estabas montando y demas, me surgio una duda, y es con respecto a las IPs, y es que, muchos de nosotros acostumbramos a comprar hostings compartidos, los cuales hay muchos blogs usando la misma IP, es aconsejable comprar IPs para cada uno de nuestros blogs?, si en ese servidor hay una web penalizada, nos afectara al resto? y que me dices de usar las DNS de cloudflare? o google sabe detectar la IP de servidor detras de cloudflare?, la verdad no estoy del todo claro sobre eso y no se si ya has hablado de ello anteriormente, pero me llamo la atencion porque mencionas que tienes muchos servidores y demas, no se si es que uno solo no te aguante tu trafico jaja o es que lo haces con otro objetivo.
Y otra cosa sobre tu post, que pasa si le hacemos un poco de trampa al Pogo sticking?, y colocamos nuestro celestial script de no permitir que el usuario vaya hacia atras y caiga en un bucle infinito con la intencion de que no regrese a google 😉 vamos que seguro lo has pensado, y lo has aplicado alguna ves como experimento, que tal ha sido tu experiencia con eso jaja, la verdad espero que mis preguntas no sean muy fastidiosas, saludos y excelente como siempre, por cierto, te mando saludos romuald jaja 🙂 es joda, un saludo amigo…
Buenas Chuiso!! Llego tardecillo a este post jaja pero bueno, nunca viene mal aprender estas cosas.
En cuanto he leído tu post me ha venido a la cabeza una página web que encontré el otro día. Súper simple y cutre pero a la que acudiré siempre que quiera alquilar mi equipo de escalada. Me llamó la atención porque el % de rebote de esa página debe ser del 100% vaya. Y sin embargo está en primeras posiciones! La página es viaferrata.cat . No es mía ni de ningún conocido 😉
Gracias por tanto buen tip compartido!
Cada vez se usan más bloqueadores de Javascript y demás porquería de las webs, por lo que los datos que ofrece Analytics no representan la muestra completa. Aparte es vender a tu audiencia al puto Google, e implica poner el odioso aviso de cookies.
Yo prefiero AWStats que da más información (aunque menos detalle del comportamiento del usuario).