1 Followers
26 Following
fireface04

fireface04

SPOILER ALERT!

Cómo hacer una web optimizada para SEO

Ahora que ya sabesy cuáles son losque Google tiene en cuenta a la hora de posicionar una web, te falta aprender qué debes hacer para que tu página tenga oportunidades de posicionar arriba en las.


En este capítulo hablaremos sobre
cómo optimar los primordiales factores de posicionamiento así como los primordiales inconvenientes posicionamiento SEO que surgen en el momento de optimizar una weby sus posibles soluciones.



Dividiremos los temas de este capítulo en cuatro grandes bloques:


  1. Accesibilidad
  2. Indexabilidad
  3. Contenido
  4. Meta etiquetas

1. Accesibilidad



El primer paso a la hora de optimizar el posicionamiento SEO de una web es permitir el acceso a los motores de búsqueda a nuestro contenido.Es decir, hay que revisar si la página web es visible a los ojos de los motores de búsqueda y sobre todo, cómo están viendo la página.


Por distintos motivos que vamos a explicar más adelante puede darse el caso de que los motores de búsqueda no puedan leer correctamente una web, un requisito indispensable para el posicionamiento.



Aspectos a tener en consideración para una buena accesibilidad


  • Archivo robots txt
  • Meta etiqueta robots
  • Códigos de estado HTTP
  • Sitemap
  • Estructura web
  • JavaScript y CSS
  • Velocidad de la web

Archivo robots txt



El fichero robots.txt se usa para impedir que los motores de búsqueda accedan y también indexen ciertas partes de una web.Es muy útil para evitar que Google muestre en los resultados de búsqueda las páginas que no deseamos. Por poner un ejemplo en Wordpress, a fin de que no accedan a los archivos de administrador, el archivo robots.txt sería así:


User agent:*


Disallow:/wp-admin



OJO:Debes tener mucho cuidado de no bloquear el acceso de los motores de búsqueda a tu web sin darte cuenta como en este ejemplo:


User agent:*


Disallow:/



Debemos comprobar que el archivo robots.txt no está bloqueando ninguna parte esencial de nuestra web.Podemos hacerlo visitando la url /robots.txt, o a través de Google Webmaster Tools en “Rastreo” > “Probador de robots.txt”


El fichero robots.txt también puede emplearse para indicar dónde se encuentra nuestro sitemap añadiendo en la última línea del documento.


Por lo tanto, un ejemplo de robots.txt completo para WordPress se vería así:


User-agent:*


Disallow:/wp-admin


Sitemap:/sitemap.xml


Si deseas profundizar más en detalle sobre este fichero, te invitamos a visitar


Meta etiqueta Robot



La meta etiqueta “robots” se emplea para decirle a los robots de los motores de búsqueda si pueden o bien no indexar la página y si deben continuar los enlaces que contiene.


A la hora de examinar una página deberás revisar si hay alguna meta etiqueta que por error esté bloqueando el acceso a estos robots. Este es un caso de cómo se verían estas etiquetas en el código HTML:


<meta name=”robots” content=”noindex, nofollow”>


Por otra parte las meta etiquetas son muy útiles para eludir que Google indexe páginas que no te interesen, como pueden ser las paginaciones o los filtros, pero que siga los links a fin de que continúe rastreando nuestra página web. En un caso así la etiqueta quedaría así:


<meta name=”robots” content=”noindex, follow”>


Podemos revisar las meta etiquetas haciendo click derecho en la página y escogiendo “ver código fuente de la página”.


O si queremos ir un poco más allá, con la herramientapodemos ver de un vistazo qué páginas de toda la web tienen incorporada dicha etiqueta. Puedes verlo en la pestaña “Directives” y en el campo de “Meta Robots 1”. Una vez tengas localizadas todas las páginas con esta etiquetas solo debes quitarlas.


Códigos de estado HTTP



En el en caso de que alguna URL devuelva un código de estado (404, quinientos dos, etcétera, los usuarios y los motores de búsqueda no podrán acceder a esa página.Para identificar estas URLs os recomendamos emplear también Screaming Frog, por el hecho de que muestra rápidamente el estado de todas las URLs de tu página.



IDEA:Cada vez que hagas una nueva búsqueda en Screaming Frog exporta el resultado en un CSV. Así los podrás reunir todas en un mismo Excel más tarde.


Sitemap



El sitemap es un archivo XML que contiene una lista de las páginas del sitiojunto con alguna información auxiliar, como con qué frecuencia la página cambia sus contenidos, cuándo fue su última actualización, etc.


Un pequeño extracto de un sitemap sería:


<url>


<loc> </loc>


<changefreq>daily</changefreq>


<priority>1.0</priority>


</url>



Puntos esenciales que debes revisar con respecto al Sitemap, que:


  • Siga los protocolos, si no Google no lo procesará adecuadamente
  • Esté subido a Google Administrador web Tools
  • Esté actualizado. Cuando actualices tu página web, asegúrate que tienes todas las páginas nuevas en tu sitemap
  • Todas las páginas que hay en el sitemap estén siendo indexadas por Google


En en el caso de que la web no disponga de ningún sitemap vamos a deber crear uno, siguiendo 4 pasos:


  1. Genera un Excel con todas y cada una de las páginas que deseemos que se indexen, para esto usaremos exactamente el mismo Excel que creamos al hacer las búsqueda de los códigos de respuesta HTTP
  2. Crea el sitemap. Para ello te recomendamos la herramienta(fácil y muy completa)
  3. Compara las páginas que hay en tu excel y las que hay en el sitemap y elimina del excel las que no queremos que se indexen
  4. Sube el sitemap a través de Google Administrador web Tools

Estructura web


Si la estructura de una web es demasiado profunda a Google le resultará más difícil llegar a todas las páginas. Así que
se aconseja que la estructura no tenga más de tres niveles de profundidad,(sin contar la home) en tanto que el robot de Google tiene un tiempo limitado para rastrear una web, y cuantos más niveles deba atravesar menos tiempo le quedará para acceder a las páginas más profundas


Por eso es mejor siempre y en toda circunstancia crear un estructura web en horizontal y no en vertical.


Estructura Vertical


Estructura análisis de optimización web


Nuestro consejo es hacer un esquema de toda la web en el que se pueda ver fácilmente los niveles que tiene, desde la home hasta la página más profunda y poder calcular cuántos clicks hacen falta para llegar a ella.


Localiza en qué nivel está cada página y si tienes links apuntando hacia ella usando nuevamente Screaming Frog.


JavaScript y CSS


Aunque en los últimos años Google se ha vuelto más inteligente en el momento de leer este género de tecnologías debemos llevar cuidado porque el JavaScript puede ocultar parte de nuestro contenido y el CSS puede desordenarlo mostrándolo en otro orden al que lo ve Google.


Existen 2 métodos para saber cómo lee Google una página:



Plugins


Los complementos como Web Developer o Disable-HTML nos ayudan a ver cómo “rastrea” la página web un buscador. Para esto hay que abrir una de estas herramientas y desactivar el JavaScript. Esto lo hacemos pues todos y cada uno de los menús desplegables, enlaces y textos deben poder ser leídos por Google.


Después desactivamos el CSS, ya que deseamos ver el orden real del contenido y el CSS puede cambiar esto completamente.



Comando “cache:”


Otra forma de saber cómo ve Google una web es mediante el comando “cache:”


Introduce “cache:” en el buscador y pulsa en “Versión sólo texto”. Google te mostrará una fotografía donde podrás saber cómo lee una web y cuándo fue la última vez que accedió a ella.



Eso sí, a fin de que el comando “cache:” funcione correctamente nuestras páginas han de estar anteriormente indexadas en los índices de Google.


Una vez que Google indexa por vez primera una página, determina con qué frecuencia volverá a visitarla en pos de actualizaciones. Esto dependerá de la autoridad y relevancia del dominio al que pertenece esa página y de la frecuencia con que se actualice.


Ya sea a través de un complemento o bien el comando “cache:”, asegúrate de que cumples los siguientes puntos:


  • Puedes ver todos los enlaces del menú.
  • Todos los links de la web son clicables.
  • No hay texto que no sea perceptible con CSS y Javascript activados.
  • Los enlaces más importantes están en la parte superior.

Velocidad de carga



El robot de Google tiene un tiempo limitado en el momento de navegar por nuestra página, cuanto menos tarde cada página en cargar a más páginas conseguirá llegar.


También debes en cuenta que una carga de página lentísima puede hacer que tu porcentaje de rebote se dispare, con lo que se transforma es un factor vital no solo para el posicionamiento sino más bien también para una buena experiencia de usuario.


Para ver la velocidad de carga de tu web te invitamos a, allí puedes revisar cuáles son los problemas que más ralentizan tu site además de hallar los consejos que te ofrece Google para atajarlos. Céntrate en los que tienen prioridad alta y diseño woocommerce madrid .


Indexabilidad



Una vez que el robot de Google ha accedido a una página el próximo paso es que la indexe,estas páginas se incluirán en un índice donde se ordenan según su contenido, su autoridad y su relevancia para que sea más fácil y rápido para Google acceder a ellas.


¿Cómo revisar si Google ha indexado mi web correctamente?


Lo primero que tienes que hacer para saber si Google ha indexado tu página web correctamente es
realizar una búsqueda con el comando “site:”, de este modo Google te dará la cantidad aproximada de las páginas de nuestra web que tiene indexadas:


Si tienes vinculado Google Webmaster Tools en tu página web también puedes revisar el número real de páginas indexadas yendo a Índice de Google > Estado de indexación


Sabiendo (más o menos) el número preciso de páginas que tiene tu página web, este dato te servirá para equiparar número de páginas que tiene Google indizadas con el número de páginas reales de tu web. Pueden acontecer 3 escenarios:



  1. El número en los dos casos es muy afín.Significa que todo está en orden.

  2. El número que aparece en la búsqueda de Google es menor, lo que significa que Google no está indexando muchas de las páginas.Esto sucede porque no puede acceder a todas y cada una de las páginas de la web. Para solucionar esto examina la parte de accesibilidad de este capítulo.

  3. El número que aparece en la búsqueda de Google es mayor, lo que significa que tu web tiene un inconveniente de contenido copiado. Probablemente la razón por la que hay más páginas indizadas de las que realmente existen en tu web es que tengas contenido copiado o que Google está indexando páginas que no deseas que se indexen.

Contenido duplicado



Tenersignifica que para varias URLs tenemos el mismo contenido.Este es un inconveniente muy común, que muy frecuentemente es involuntario y que además puede acarrear efectos negativos en el posicionamiento en Google.



Estos son los primordiales motivos del contenido duplicado:



  • “Canonicalización” de la página

  • Parámetros en la URL

  • Paginación

Es el motivo más común de contenido copiado y se produce cuando tu página de comienzo tiene más de una URL:


ejemplo.com



ejemplo.com/index.html


/index.html


Cada una de las precedentes dirigen a la misma página con exactamente el mismo contenido,
si no se le señala a Google cuál es la adecuada no sabrá cuál tiene que posicionar y es posible que posicione justo la versión que no se quiera.


  1. Hacer una redirección en el servidor para asegurarte de que solo hay una página que se muestre a los usuarios.
  2. Definir qué subdominio deseamos que sea el principal (“www” o “no-www”) en Google Webmaster Tools.
  3. Añadir unaen cada versión que apunte a las que se considera la adecuada.

Existen muchos géneros de parámetros, sobre todo en y también-commerce: filtros de los productos (color, talla, puntuación, etcétera), ordenación (costo menor, por relevancia, costo mayor, en cuadrícula, etcétera) y sesiones de usuarios.
El inconveniente es que muchos de estos parámetros no cambian el contenido de la página y eso genera muchas URLs para el mismo contenido.


/boligrafos?color=negro&precio-desde=5&precio-hasta=10


Es este caso hallamos tres parámetros: color, precio mínimo y coste máximo.


Añade una etiqueta “rel=canonical” cara la página original, así evitarás cualquier tipo de confusión por parte de Google con la página original.



Otra posible solución esindicar a través de Webmaster Tools > Rastreo > Parámetros de URL qué parámetros debe ignorar Google en el momento de indexar las páginas de una web.


Cuando un artículo, lista de productos o páginas de etiquetas y categorías tienen más de una página, pueden aparecer problemas de contenido copiado aunque las páginas tengan contenido diferente, pues todas están centradas en el mismo tema. Esto es un inconveniente enorme en las páginas de y también-commerce donde existen cientos y cientos de artículos en la misma categoría.


Actualmente las etiquetas rel=next y rel=prev permiten a los motores de búsqueda saber qué páginas pertenecen a una misma categoría/publicación y así es posible centrar todo el potencial de posicionamiento en la primera página.



Cómo utilizar los parámetros NEXT y PREV


1. Añadir la etiqueta rel=next en la una parte de del código a la primera página:


  • link rel=”next” href=”/page-2.html” />

2. Añadir en todas las páginas menos la primera y la última las etiquetas rel=next y rel=prev


  • link rel=”prev” href=”/page-1.html” />
  • link rel=”next” href=”/page-tres.html” />

3. Añadir a la última página la etiqueta rel=prev


  • link rel=”prev” href=”/page-cuatro.html” />


Otra solución esbuscar el parámetro de paginación en la URL e introducirlo en Google Webmaster Tools para que no se indexe.


Canibalización



La canibalización de keywords ocurre cuando en una web hay varias páginas que compiten por las mismas palabras clave.Esto confunde al motor de búsqueda al no saber cuál es la más relevante para esa palabra clave.


Este problema es muy común en los e-commerce, por el hecho de que al tener varias versiones de un mismo producto “atacan” con todas ellas a las mismas palabras clave. Por servirnos de un ejemplo, si se vende un libro en versión tapa blanda, tapa dura y versión digital, se tendrán 3 páginas con prácticamente exactamente el mismo contenido.


Crear una página primordial del producto, lugar desde donde se acceda a las páginas de los diferentes formatos, en las que incluiremos unaque apunte a dicha página primordial. Lo óptimo siempre será centrar cada palabra clave en una sola página para evitar cualquier problema de canibalización.


3. Contenido


Ya que en los últimos años ha quedado bastante claro que el contenido es el auténtico rey para Google. Ofrezcámosle un buen trono entonces.



El contenido es la parte más importante de una web y por más que esté bien optimada a nivel posicionamiento web, si no es relevante respecto a las búsquedas que efectúan los usuarios jamás va a aparecer en las primeras situaciones.


Para hacer un buen análisis del contenido de nuestra web tienes varias herramientas a tu disposición, pero al final lo más útil es usar la página con el Javascript y los CSS desactivados cómo explicamos previamente.
De este modo verás qué contenido está leyendo Google verdaderamente y en qué orden está preparado.


A la hora de analizar el contenido de las páginas debes hacerte múltiples preguntas que te guiarán en el proceso:



  • ¿La página tiene suficiente contenido?No hay una medida estándar de cuánto es “suficiente”, pero cuando menos debería contener 300 palabras.

  • ¿El contenido es relevante?Debe ser útil para el lector, basta con preguntarte a ti si tú leerías eso. Sé sincero.

  • ¿Tiene palabras clave importantes en los primeros párrafos?Además de estas vamos a deber utilizar términos relacionados porque Google es muy eficiente relacionando términos.


  • ¿Tiene? Si el contenido de la página “peca” de exceso de palabras clave a Google no le hará ninguna gracia. No hay un número preciso que defina unaclave perfecta, pero Google recomienda ser lo más natural posible.

  • ¿Tiene faltas de ortografía?

  • ¿Es fácil de leer?Si no se nos hace tediosa la lectura, estará bien. Los párrafos no han de ser larguísimos, la letra no debe tener un tamaño demasiado pequeño y es conveniente que haya imágenes o bien vídeos que refuercen el texto. Acuérdate de meditar siempre para qué público escribes.

  • ¿Google puede leer el texto de la página?Tenemos que evitar que el texto esté en Flash, imágenes o Javascript. Esto lo comprobaremos viendo la versión de solo texto de nuestra página, utilizando en Google el comando cache:www. ejemplo.com y eligiendo esta versión.

  • ¿El contenido está bien distribuido?Tiene sus etiquetas H1, H2 etcétera correspondientes, las imágenes están bien maquetadas etc.

  • ¿Es enlazable?si no le facilitamos al usuario cómo compartirlo es muy posible que no lo haga. Incluye botones de compartir en redes sociales en lugares perceptibles de la página que no estorben la visualización del contenido, así sea un vídeo, una foto o bien texto.

  • ¿Es actual?cuanto más actualizado esté tu contenido mayor será la frecuencia de rastreo de Google en tu web y mejor será la experiencia del usuario.

Puedes crear un excel con todas las páginas, sus textos y las keywords que quieres que aparezcan en ellos, de esta manera te será más fácil ver dónde debes reducir o bien aumentar el número de palabras clave en todos y cada página.


4. Meta etiquetas



Lasse emplean para transmitir información a los motores de búsqueda sobre qué trata una páginacuando estos deben ordenar y mostrar sus resultados. Estas son las etiquetas más esenciales que debemos tener en cuenta:


Title


La etiqueta title es el elemento más importante dentro de las meta-etiquetas. Es lo primero que aparece en los resultados en Google.



A la hora de optimar el title hay que tomar en consideración que:


  • La etiqueta ha de estar en la sección <head> </head> del código.
  • Cada página debe tener un título único.
  • No debe sobrepasar los 70 caracteres, si no aparecerá cortado.
  • Debe de ser gráfico con respecto al contenido de la página.
  • Debe contener la keyword para la que estemos optimando la página.


Nunca debemos abusar de las keywords en el título, esto hará que los usuarios desconfíen y que Google piense que estamos procurando engañarle.


Otro aspecto a tener en cuenta es dónde poner la “marca”, es decir: el nombre de la página web, por norma general se acostumbra a poner al final para dar más importancia a las palabras clave, apartando estas del nombre de la página web con un guión o una barra vertical.


Meta-description


Aunque no es un factor crítico en el posicionamiento de una web afecta de forma notable a la tasa de clics (click-through rate) en los resultados de búsqueda.



Para la meta-description seguiremos exactamente los mismos principios que con el title, solo que su longitud no debe sobrepasar los 155 caracteres.Tanto para los titles para las meta-descriptions debemos de eludir la duplicidad, esto lo vamos a poder comprobar en Google Webmaster Tools > Aspecto de la búsqueda > Mejoras HTML.


Meta Keywords


En su instante las meta keywords fueron un factor muy importante de posicionamiento, mas Google descubrió lo fácil que es manipular los resultados de búsqueda así que lo eliminó como factor de posicionamiento.


Etiquetas H1, H2, H3…


Las etiquetas H1, H2, etcétera son muy importantes para tener una buena estructura de información y una buena experiencia de usuario, en tanto que
definen la jerarquía del contenido,algo que mejorará el posicionamiento en buscadores. Debemos darle importancia al H1 por el hecho de que generalmente está en la parte más alta del contenido y cuanto más arriba esté una keyword más importancia le dará Google.


Etiqueta “alt” en la imagen


La etiqueta “alt” en las imágenes se añade de forma directa en el propio código de la imagen.


<img src=”/ejemplo.jpg” alt=”keyword molona” />



Esta etiqueta tiene que ser descriptiva respecto a la imagen y contenido de dicha imagen, ya que es lo que lee Google al rastrearla y uno de los factores que utiliza para posicionarla en Google Imágenes.


Conclusión


Ya sabes cómo hacer una página optimizada para SEO y que hay muchos factores que optimar si deseas aparecer en las mejores posiciones de los resultados de búsqueda. Ahora probablemente te preguntarás
¿cuáles son las keywords que mejor posicionan a mi web?


Nosotros no sabemos exactamente cuáles son esas keywords, mas sí que podemos asistirte a encontrarlas