¿Qué es el cloaking, cómo detectarlo y por qué es un Black Hat?

El cloaking en SEO ofrece a los usuarios contenido o información para mejorar su rankeo y tráfico orgánico en ciertas palabras claves. Identificarlo es una buena habilidad para tener las herramientas correctas por si algo anda mal en los SERP.

cloaking

Empezaré este contenido diciendo esto: el cloaking es un hack que, de hecho, aún funciona; es ilegal, pero aún así lo utilizan. Un poco contradictorio, ¿no es cierto?

Esta práctica se considera una violación a de las directrices para webmasters de Google porque proporciona a los usuarios resultados diferentes de los que esperaban; por lo que no es digna de ser una opción para un buen SEO.

¿No queremos todos que nuestra website se clasifique en la primera página de resultados del motor de búsqueda? Para lograr esto, todo lo que tenemos que hacer es optimizar el sitio para que parezca digno de una buena clasificación.

Esto es un proceso gradual que no puede ser acelerado con prácticas consideradas penalizadas: Blacks Hats. Por lo tanto, van en contra de brindar un excelente customer experience.

En este contenido vamos a conversar sobre el cloaking, cómo puede ser detectado, sus técnicas y por qué no debes utilizarlo. 

¡Sigue leyendo!

    Cloaking: ¿Qué es para el SEO?

    El cloaking en SEO es un método que se usa para ofrecer a los usuarios contenido o información que es diferente de lo que se presenta a los rastreadores de motores de búsqueda —es decir, arañas o bots— para mejorar su rankeo, tráfico orgánico y presencia digital en ciertas palabras claves.

    En la industria de la optimización de motores de búsqueda —SEO—, esta práctica es considerada una técnica “Black Hat” puesto que viola las políticas para webmasters de Google.

    No demos muchas vueltas: ¡Es ilegal!

    Es una actividad que, si bien sigue siendo utilizada en la actualidad, representa un acto vetado por Google que puede llegar a graves sanciones.

    A ciencia cierta, ¿cómo podemos detectarlo?

    Si estás acostumbrado a desactivar JavaScript y CSS para obtener una comprensión más profunda de cómo Googlebot podría experimentar una página, entonces deberías considerar lo siguiente en el “to-do-list” al realizar una auditoría:

    Checar el SERP y la página en sí

    Hay que revisar cómo aparece la página en el SERP y para qué se clasifica, esto puede darnos una pista de que algo está mal si no podemos encontrar ese contenido en el código o dentro de la misma website.

    Activar preservar inicio de sesión en Chrome DevTools

    Debemos acostumbrarlos a ver las páginas con las herramientas de desarrollo de Chrome abiertas y en la pestaña red. Asegúrate de mantener marcado “preserve log” también.

    Los redireccionamientos ocurren tan rápido que a menudo es difícil notarlo.

    Cuando salimos de “conservar inicio de sesión”, podremos ver cuántos saltos de redireccionamiento ocurrieron. De lo contrario, el registro se borrará solo con cada URL posterior.

    Ir a la página directamente y desde Google

    Dirigirnos a una URL determinada directamente en lugar de ser referido desde Google.com puede cambiar cómo nos funciona.

    Acá hay que probar una serie de rutas de entrada para garantizar la coherencia.

    Hacer una serie de solicitudes de CURL

    Puede haber una cantidad de cosas en nuestro navegador que una página o servidor pueden detectar para señalar que no somos un bot, por lo que se usa CURL para solicitar páginas desde la línea de comando.

    Hay una serie de comandos que se usan para obtener respuestas sin procesar del servidor

    6 técnicas que engloba el cloaking

    Ahora entendamos cómo el cloaking entra en acción, esto lo hacen mediante el uso de estas 6 técnicas:

    1. Detección de agente de usuario

    Esta quizás es la versión menos sofisticada de cloaking en la que la página determina si el agente de usuario es o no Googlebot y devuelve una versión distinta del contenido. Esto es bastante fácil de identificar según la revisión manual

    2. Detección de IP

    Esta táctica es igual que la anterior, excepto que se basa en la dirección IP; dado que estas de Googlebot pueden ser un objetivo en movimiento, la página puede moverse para hacer una búsqueda inversa de DNS y devolver una versión diferente a la página de Googlebot.

    3. Detección de referencia

    En esta oportunidad, la página detecta si el usuario proviene o no del motor de búsqueda y muestra una experiencia distinta.

    Esto también puede ser utilizado en contexto con las anteriores estrategias con la esperanza de asegurarse de que solo el motor de búsqueda vea la otra versión.

    4. Bait and Switch

    La versión más interesante del cloaking tiene que ver con impulsar a Googlebot a indexar una versión de la página con más contenido.

    Una vez que está indexado, el servidor devuelve una respuesta 304 no modificada, y luego cambia la experiencia de contenido por completo para el usuario.

    5. Sitios web basados en Flash

    Sabemos que Flash no se recomienda según las mejores prácticas de SEO; pero algunos sitios web no pueden evitarlo.

    Entonces, en lugar de rehacer toda la website en HTML simple, crean una página web ricas en contenido y se las proporcionan a los rastreadores de los motores de búsqueda y las páginas flash a los visitantes.

    6. Reemplazo de Java Scripts

    Aquí, se usa JavaScript para mostrar contenido a un usuario que no tenga habilitado JavaScript que coincida con la información textual dentro de un Flash u otro elemento multimedia.

    ¿Por qué no debes hacer uso del cloaking?

    La principal razón por la que no debemos hacer uso del cloaking es que Google penaliza esta actividad.

    El principal motor de búsqueda de la actualidad sigue actualizando su algoritmo con frecuencia y, si utilizamos este tipo de alternativas, tarde o temprano nos descubrirán y podrán prohibir permanentemente que la website sea indexada.

    Te sorprenderá saber que Google puso en su “block list” a un fabricante de automóviles alemán muy reconocido: BMW; por infringir sus directrices en febrero de 2006.

    Conclusión

    En resumidas cuentas, el cloaking todavía está ocurriendo en los SERP. Incluso puede aparecer en los fragmentos destacados.

    No es algo que vamos a necesitar para cada sitio web en el que trabajamos, pero identificarlo es una buena habilidad para tener un cinturón de herramientas preparado por si algo anda mal en los SERP.

    ¿Quieres aprender más sobre estrategias que no deberían ser puestas en marcha? De ser así, te invitamos a conectar con nuestro contenido que habla sobre el Black Hat SEO. ¡Imperdible!

    Cuota
    facebook
    linkedin
    twitter
    mail

    Suscríbete y recibe los contenidos de nuestro blog

    Recibe acceso de primera fuente a nuestras mejores publicaciones directamente en tu caja de entrada.

    Related Posts

    ¿Te gustaría recibir más contenido de altísima calidad como este y de forma totalmente gratuita?

    ¡Suscríbete para recibir nuestros contenidos por e-mail y conviértete en un miembro de la Comunidad Rock Content!