Verificaciones de SEO que debes llevar a cabo periódicamente

Verificación de SEO on-page

Cuando se trata de SEO, sabemos que la construcción de enlaces es un proceso continuo, pero la mayoría de las veces, tendemos a descuidar los aspectos de SEO. Por eso en este articulo queremos recordarte algunas de las verificaciones de SEO que debes llevar a cabo periódicamente.

Las actualizaciones del sitio, cambios de tema, actualizaciones de plugins, la adición de un nuevo plugin / funcionalidad y otros cambios, como la actualización de un archivo mediante FTP, pueden causar algunos errores accidentales que podrían generar problemas de SEO dentro de la pagina misma.

A menos que busques de forma proactiva estos errores, pasarán desapercibidos e influirán negativamente en tus ranking orgánicos.

1. Chequea que no hayan enlaces rotos en tu sitio.

Las páginas con enlaces rotos pueden perder ranking en los resultados de búsqueda.

Existe una gran posibilidad de que una página web o recurso con el que te relacionaste ya no exista o se haya movido a una URL diferente, lo que da como resultado un enlace defectuoso. Es por eso que se recomienda la verificación de enlaces rotos periódicamente.

screaming Frog SEO Spider

Hay una gran cantidad de formas de verificar si hay enlaces rotos, pero una de las maneras más fáciles y eficientes es con el Software ScreamingFrog SEO.

Para encontrar enlaces rotos en tu sitio usando ScreamingFrog, ingresa la URL de tu dominio en el espacio provisto y haga clic en el botón “Comenzar”.

Una vez que se completa el rastreo, selecciona la pestaña Códigos de respuesta y filtra los resultados según “Error del cliente (4xx)”. Ahora deberías poder ver todos los enlaces que están rotos. Ahora, si estás usando WordPress, también puedes usar un plugin como Broken Link Checker. Este plugin encontrará y solucionará todos los enlaces rotos.

Otra forma de verificar enlaces rotos es a través de Google Search Console. Inicia sesión y ve a Rastrear; Errores de rastreo y busca los errores “404” y “no encontrado” en la sección Errores de URL.

Si encuentras 404 URL, haz clic en la URL y luego ve a la pestaña Linked from para ver qué página(s) contiene esta URL rota.

Enlaces-rotos-encontrados-en-WordPress-con-el-plugin-Broken-Link-Checker

2. Usa el comando del sitio para verificar la presencia de páginas de bajo valor en el índice de Google. El operador de comando “site: sitename.com” muestra todas las páginas de tu sitio indexadas por Google.

Al escanear aproximadamente estos resultados, deberías poder verificar si todas las páginas indexadas son de buena calidad o si hay algunas páginas de bajo valor presentes.

Si tu sitio tiene muchas páginas, cambia la configuración de Búsqueda de Google para mostrar 100 resultados a la vez. De esta forma, puedes escanear fácilmente todos los resultados rápidamente.

Un ejemplo de página de bajo valor sería la de “resultados de búsqueda”. Es posible que tengas un cuadro de búsqueda en tu sitio y existe la posibilidad de que todas las páginas de resultados de búsqueda se rastreen e indexen. Todas estas páginas no contienen más que enlaces y por lo tanto son de poco o ningún valor. Lo mejor es evitar que estas páginas se indexen.

Otro ejemplo sería la presencia de múltiples versiones de la misma página en el índice. Esto puede suceder si ejecutas una tienda en línea y tus resultados de búsqueda tienen la opción de ser ordenados.

Puedes excluir fácilmente que dichas páginas no se indexen al rechazarlas en Robots.txt o al  usar la metaetiqueta Robots. También puedes bloquear ciertos parámetros de URL para que no se rastreen con Google Search Console yendo a Rastrear> Parámetros de URL.

3. Chequea Robots.txt para ver si estás bloqueando recursos importantes

Al usar un CMS como WordPress, es fácil bloquear accidentalmente contenido importante como imágenes, javascript, CSS y otros recursos que realmente pueden ayudar a los bots de Google a tener un mejor acceso / analizar tu sitio web.

Por ejemplo, bloquear la carpeta wp-content en tu Robots.txt significaría bloquear el rastreo de imágenes. Si los bots de Google no pueden acceder a las imágenes en tu sitio, tu potencial para obtener un ranking más alto debido a estas imágenes se reduce.

Para saber si estás bloqueando recursos importantes, inicia sesión en tu Google Search Console y ve a Google Index> Recursos bloqueados.

Aquí deberías poder ver todos los recursos que estás bloqueando. A continuación, puedes desbloquear estos recursos utilizando Robots.txt (o mediante .htaccess si es necesario).

Para verificar si estos recursos se pueden rastrear, ve Rastreo> Robots.txt tester en su Google Search Console, luego ingresa la URL en el espacio provisto y haz clic en “Probar”.

robots.txt Tester

4. Comprueba la fuente HTML de tus publicaciones y páginas importantes para asegurarte de que todo esté bien.

Una cosa es utilizar los plugins de SEO para optimizar tu sitio y otra cosa es asegurarte de que funcionen correctamente.  Si estás usando WordPress, solo necesitas verificar el origen de una o dos de cada una de estas páginas para asegurarte de que todo esté bien.

Verificar Paginas

  • Homepage / Frontpage (+ una página paginada si esta paginación homepage está presente)
  • Cualquier página de publicaciones individuales
  • Una de cada página de archivo (primera página y algunas páginas paginadas)
  • Página de conexión de medios
  • Otras páginas: si tiene páginas de publicación personalizadas

Verificar Fuente

  • Abre la página que debe verificarse en la ventana de tu navegador
  • Presiona CTRL + U en tu teclado para que aparezca el origen de la página, o haz clic derecho en la página y selecciona “Ver fuente”.
  • Ahora verifica el contenido dentro de las etiquetas ‘head’ (</ head>) para asegurarte de que todo esté bien.

También Verifica

  • Comprueba si las páginas tienen varias instancias de la misma metaetiqueta, como el título o la etiqueta de meta descripción. Esto puede suceder cuando un plugin y un tema insertan la misma metaetiqueta en el encabezado.
  • Verifica si la página tiene una etiqueta meta robots y asegúrate de que esté configurada correctamente. En otras palabras, verifica que la etiqueta de robots no esté configurada accidentalmente en Noindex o Nofollow para páginas importantes. Y asegúrate de que está configurado en Noindex para páginas de bajo valor.
  • Verifica si la página tiene una etiqueta meta robots y asegúrate de que esté configurada correctamente. En otras palabras, verifica que la etiqueta de robots no esté configurada accidentalmente en Noindex o Nofollow para páginas importantes. Y asegúrate de que está configurado en Noindex para páginas de bajo valor.
  • Si se trata de una página paginada, comprueba si tienes las metaetiquetas rel=”next” y rel=”prev” adecuadas.
  • Comprueba si la página tiene una etiqueta rel=”canonical” y asegúrate de que muestra la URL canónica correcta.
  • Verifica si las páginas tienen una metaetiqueta de ventana gráfica. (Esta etiqueta es importante para la capacidad de respuesta móvil).

5. Comprueba si hay errores de usabilidad móvil.

Los sitios que no son responsive no tienen un buen ranking en los resultados de búsqueda de Google para dispositivos móviles. Así tu sitio sea responsive, no hay forma de decir lo que pensarán los bots de Google. Incluso un pequeño cambio como el bloqueo de un recurso puede hacer que tu sitio responda no responda en la vista de Google.

Haz una práctica para verificar si tus páginas son amigables para dispositivos móviles o tienen errores de usabilidad. Para ello, inicia sesión en tu Google Search Console y ve a Buscar tráfico> Usabilidad móvil para verificar si alguna de estas páginas muestra errores de usabilidad móvil.  También puede usar la Google mobile friendly test para verificar páginas individuales.

mejorar-usabilidad-web

6. Comprueba si hay scripts de bloqueo de renderizado.

Es posible que hayas agregado un nuevo plugin o funcionalidad a tu WebSite y con ello haber agregado visitas a muchos archivos Javascript y CSS en todas las páginas de tu sitio. La funcionalidad del plugin puede ser para una sola página, pero las visitas a tu javascript y CSS están en todas las páginas.
Por ejemplo, si has agregado un plugin de formulario de contacto que solo funciona en tu página de contacto. Pero el plugin podría haber agregado tus archivos Javascript en cada página. Cuantas más javascript y referencias CSS tenga una página, más tiempo tardará en cargarse.

Esto reduce la velocidad de tu página, lo que puede afectar negativamente tu ranking en los motores de búsqueda.  La mejor forma de garantizar que esto no suceda es revisar las páginas de tu sitio con la herramienta Google’s PageSpeed Insights de forma regular.  Comprueba si hay archivos JavaScript de bloqueo renderizado y determina si estos scripts son necesarios para que la página funcione correctamente.

Si encuentras scripts no deseados, restringe estos scripts solo a páginas que los necesiten para que no se carguen donde no se los quiere. También puedes considerar agregar un atributo “aplazar” o “asincrónico” a los archivos Javascript.

Errores de Javascript

7. Verifica y monitorea los tiempos de inactividad del sitio

Los tiempos de inactividad frecuentes no solo alejan a los visitantes, sino que también perjudican tu SEO. Es por eso que es imperativo monitorear el tiempo de actividad de tu sitio de manera constante.

Hay una gran cantidad de servicios gratuitos y de pago como Uptime Robot, Jetpack Monitor, Pingdom, Montastic, AreMySitesUp y Site24x7 que pueden ayudarte a lograrlo. La mayoría de estos servicios te enviará un correo electrónico o incluso una notificación móvil para informarte de los tiempos de inactividad del sitio. Algunos servicios también te envían un informe mensual de cómo se desempeñó tu sitio.

Si encuentras que tu sitio experimenta tiempos de inactividad frecuentes, es hora de considerar cambiar tu proveedor de alojamiento web.

Deja tu comentario