¿Cómo se indexa el https?

La indexación del https es uno de esos misterios que hace la vida de los SEO más interesante. Si bien sabemos que es posible indexarlo en la mayor parte de los buscadores, casi nadie sabe cómo conseguirlo en el mínimo tiempo posible.

¿Qué es el https?

El https es la versión segura del protocolo http. La diferencia entre uno y el otro es que el primero transmite los datos cifrados, y el segundo los transmite sin cifrar.

El sistema https utiliza un cifrado basado en las Secure Socket Layers (ssl) para enviar la información.

La decodificación de la información depende del servidor remoto y del navegador utilizado por el usuario.

Es utilizado principalmente por entidades bancarias, tiendas en línea, y cualquier tipo de servicio que requiera el envío de datos personales o contraseñas.

¿Cómo funciona el https?

Contrariamente a lo que piensa mucha gente, el https no impide el acceso a la información, sólo la encripta cuando la transmite. De ahí que el contenido de una página web que utiliza el protocolo https pueda ser leído por las arañas de los buscadores. Lo que no puede ser leído es el contenido que se envía desde esa página web a su servidor, por ejemplo, el login y la contraseña de acceso a una zona privada de la página web.

El puerto estándar para este protocolo es el 443.

¿Cómo sabemos que realmente se indexa el https?

Google indexa https desde inicios del 2002 y progresivamente, el resto de buscadores han ido adaptando su tecnología para indexar también el https.

El último buscador en hacerlo ha sido MSN, que lo consiguió en junio 2006.

Si buscamos “https://www.” o bien inurl:https en los principales buscadores, encontraremos páginas https indexadas en ellos.

¿Cómo podemos indexar nuestro https?

En principio, de forma natural podemos indexar nuestras páginas en https, pero como este protocolo transmite la información de forma mucho más lenta, algunas veces las arañas no consiguen descargar las páginas en el tiempo que tienen establecido y se van sin indexarlo. Este es el principal problema con el que nos podemos encontrar. Lo resolveremos intentando disminuir el tiempo de descarga de estas páginas.

Cómo podemos acelerar la indexación del https

Existen dos técnicas:

  1. Google Sitemap: Incluir en nuestro sitemap las páginas https (nos referimos al google sitemap, no al sitemap para humanos), y darlo de alta en sitemaps de google.
  2. Guerrilla: repartir por todo Internet enlaces que vayan a nuestras páginas https, y conseguir de esta forma que las arañas que están indexando las páginas donde tengamos los enlaces, entren también en la parte https de nuestra web.

Cómo podemos hacer que no se indexe nuestro https

No es tan fácil cómo parece. No nos sirve incluir las páginas https en nuestro robots.txt. Cada puerto necesita su propio robots.txt, así que deberemos crear un robot.txt para nuestras páginas http y otro para nuestras páginas https. O sea, deberemos tener también una página llamada

https://www.nombredelapagina.com/robots.txt

Si necesitas ayuda para indexar o desindexar tus páginas https, no dudes en contactarnos. Estaremos encatados de asistirte.

Información complementaria:

Blog de MSN acerca de indexación – Artículo donde explican que MSN empieza a indexar https
http://blogs.msdn.com/livesearch/archive/2006/06/28/649980.aspx

Información de Google acerca de cómo no indexar https:
http://www.google.es/support/webmasters/bin/answer.py?answer=35302

Más información sobre sitemaps de google:
SiteMaps de Google
http://www.geamarketing.com/articulos/Descubre_indexacion_futuro_Google_SiteMap.php

Curso online, gratuito, de posicionamiento en buscadores: Curso de posicionamiento en buscadores
http://www.geamarketing.com/posicionamiento_buscadores.php

 

Actualización del PageRank de Google en septiembre 2006

El pasado 28 de septiembre Google actualizó el PageRank que muestra su barra de navegación. Muchas páginas web han visto cómo el suyo subía, o cómo bajaba…

Ya hemos comentado otras veces que el PageRank que nos muestra la barra forma parte de una escala logarítmica de 10. Es decir, es fácil subir de 0 a 1 o de 2 a 3, pero en cambio es muy difícil subir de 5 a 6, y aún más subir de 6 a 7. En cambio el PageRank que utiliza Google para sus cálculos es mucho más preciso y utiliza una escala mucho mayor, aunque no sabemos cuánto. En Google existe un hermetismo total a este respecto.

O sea, el PageRank de la barra de Google no muestra el PageRank calculado en tiempo real (que es el utilizado por Google en el cálculo de su algoritmo de ordenación) sino que muestra la última actualización. Durante 2006 hubo 4 actualizaciones de PR: en febrero, en abril, en julio y ésta última, a finales de septiembre. Es decir, en 4 ocasiones durante 2006 Google ha cogido su PageRank, lo ha distribuido en base 10 y lo ha exportado a los servidores que alimentan las barras de Google.

Esto quiere decir que en principio, aunque alguien vea un cambio de PageRank en su barra de Google, sus resultados en Google no deberían verse afectados, ya que Google ya ha estado utilizando su PageRank actualizado durante algún tiempo. Así que aunque haya aumentado o haya disminuido, los resultados de octubre, en cuanto a lo que al PageRank se refiere, serán los mismos que ésta página tuvo en septiembre.

Nos consta, que las páginas que se han puesto online en los últimos 3 meses no tienen nuevo PageRank. Nuestra página web es un ejemplo de esto: está online desde el 29 de agosto y aún no nos ha asignado PageRank en la barra de navegación. Nuestro mismo caso puede encontrarse en muchos de los foros que tratan temas de PageRank. Esperemos que en la próxima actualización se nos asigne.
La próxima exportación está prevista para principios de enero. Veremos qué nos depara…

Enlaces de interés:

Información sobre qué es el PageRank y para qué sirve:
Qué es el PageRank

Curso online de Posicionamiento en Buscadores, gratuito:
Curso de Posicionamiento en Buscadores

Blog de Matt Cutts con algunas preguntas y respuestas acerca de esta última actualización:
Actualización del PageRank de Google

Gloogle Trends – El analizador de tendencias que puede ayudarte a mejorar tus campañas de adwords

Desde hace algunos meses, desde Google Labs, Google nos ofrece una nueva herramienta para conocer las tendencias de búsqueda de un término, o para poder comparar tendencias de búsqueda de dos o más términos.

www.google.com/trends

Tal como advierte Google, ésta herramienta está en fase beta, por lo que sus resultados no son aún 100% fiables, pero aún así, la información que nos proporciona es útil y podemos sacar un buen partido de ella.

¿Cómo podemos utilizar Google Trends a nivel de Marketing Digital?

Es obvio que aparte del placer de satisfacer nuestra curiosidad, Google Trends tiene más utilidades. La más destacada es como complemento a la herramienta de selección de palabras clave de Google Adwords.

Comparativa entre dos o más términos para contratar Adwords

Aunque Google Adwords ya nos ofrece una herramienta parecida:
https://adwords.google.es/select/KeywordToolExternal

Si buscamos palabras clave relacionadas con “turismo en Barcelona” en la herramienta de Google Adwords y seleccionamos la opción “Tendencias de volumen de búsquedas globales”, obtenemos los datos que se muestran en esta imagen:

Ésta información nos es útil para seleccionar las palabras clave por las que deseamos que se muestre nuestro anuncio, pero si realizamos ésta misma búsqueda en Google Trends comparando “turismo en barcelona” con “hoteles en barcelona”, el resultado que nos ofrece es más completo y nos permite mejorar mucho más la campaña.

La herramienta de Google Adwords nos indica las palabras clave relacionadas con la palabra inicial, pero Google Trends nos muestra la evolución de las búsquedas de esos términos, y la información sobre el origen de ésas búsquedas. Nos las puede mostrar incluso por ciudades. Y si seleccionamos una región en concreto, nos lo indica por ciudades de esa región. Esto nos puede ayudar mucho a crear nuestra campaña y a segmentarla correctamente.

Para términos en otros idiomas, aún es más importante la información sobre las búsquedas regionales. Por ejemplo, si la búsqueda la escribimos en Inglés: “Tourism in Barcelona”, y seleccionamos la tendencia por regiones, veremos las búsquedas de éste término por países.

Aunque los resultados de esta búsqueda creo que sí se ven afectados por el hecho de que se trata de una beta… por mi experiencia en marketing turístico no me parece lógico que la mayor parte de búsquedas realizadas en Google para el término en cuestión, estén hechas desde Irlanda… así que creo Google no tiene en cuenta todas las búsquedas de todos los Google’s locales de todo el mundo. Pero bueno… aún así, la información que nos ofrece es útil y ayuda a completar la información que obtenemos desde Google Adwords… y si ahora ya nos es útil, es de esperar que en un futuro próximo esta herramienta deje de ser beta y aún pueda sernos de más utilidad.

La web de BMW expulsada de Google… ¿podría pasarte a ti?

Es la noticia de la semana: La web de BMW alemana ha sido expulsada de Google.de por practicar spam a buscadores.

Ha sido el blog de Matt Cutts quien ha desvelado esta expulsión. Matt es un empleado de Google que escribe uno de los mejores blogs con contenido SEO de la red. Obviamente, Matt no desvela nada que Google no quiera, pero al menos la información que ofrece es siempre de primera mano y viene directamente de su fuente.

Veamos qué es lo que ha ocurrido…

Hace ya unas semanas Matt comentaba que Google va a ponerse mucho más duro contra el spam a buscadores y que entre febrero y marzo va a cambiar su forma de indexar los sites, para combatirlo. No cambiará el algoritmo, pero sus arañas buscarán el spam y lo reportarán para su posterior eliminación.

El problema del spam se está convirtiendo en una pesadilla para los principales buscadores y el caso de BMW no es un caso aislado. Muchos webmasters creen poder engañar a Google y al resto de buscadores utilizando código oculto o camuflando palabras entre sus textos.

Muchas veces, navegando por los resultados de Google te encuentras con páginas que no están correctamente posicionadas… pero no por ser buenas… si no al revés. Te preguntas cómo puede ser que una página tan “cutre” y con un contenido tan pobre, pueda estar en la primera posición por una búsqueda con más de quinientos mil resultados. Si miras bien el código, acabas encontrando la razón. El caso de BMW es también con código oculto, ahora ya no podemos verlo si no es en la imagen que nos muestra Cutt, pero aún hay muchas páginas que practican spam y que Google no ha detectado y expulsado.

Veamos un ejemplo donde aún se puede ver el código oculto:

www.todoalarmas.com

Si buscamos en Google “alarmas hogar”, encontraremos 996.000 resultados. Ésta página está en primer lugar. Si entras en ella verás que no hay motivos aparentes para que ocupe este puesto. Pero si editas su código fuente, descubrirás por qué está en primera posición: un texto oculto en un “no script” con más de 3000 palabras.

Nota: no podrás ver su código si pulsas sobre el botón derecho del mouse y le das a ver código… (de eso ya se han encargado ellos de que no puedas hacerlo), pero sí verás su código si vas a la barra del menú superior y pulsas sobre: ver >> Código fuente.

Veremos cuanto duran…

Mirando si desaparecen o no de Google, también podremos saber cuándo Google ha activado el sistema antispam de indexación.

… y sobre BMW: los de BMW ya han pedido disculpas a Google y Google ya los ha vuelto a poner en la lista de sites a indexar, con lo que en la próxima actualización sus páginas irán volviendo a ser indexadas. Pero se tarda su tiempo (ver meses) en indexar de nuevo una web entera, con todas sus páginas. (A no ser que utilices el “site map” de Google para hacerlo, cosa que no sé si BMW hará… ya lo veremos).

La moraleja de todo esto es: No intentes engañar a Google y céntrate en construir bien las páginas y en tener un contenido interesante que consiga que otras webs te recomienden (esto te hará subir el PageRank). Haz un Plan de Marketing Digital y síguelo.

La moraleja 2 sería: Realmente los buscadores influyen de forma definitiva en el éxito o el fracaso de las páginas web… de lo contrario, BMW no se arriesgaría a ser expulsada por un tema así, ni muchas otras páginas web.

Información complementaria:

Artículo donde explicábamos qué es el spam en buscadores y la posible solución de Google contra él al incluir el algoritmo de Trust Rank para matizar el Page Rank:
Descubre como será el substituto del PageRank de Google: el TRUST RANK

Artículo donde explicábamos qué es el servicio de “site map” de Google y donde explicamos cómo funciona: Descubre la indexación del futuro: Google SiteMap

Texto camuflado por BMW:
http://www.mattcutts.com/blog/ramping-up-on-international-webspam/

Curso gratuito de posicionamiento en buscadores, que no te llevará a la expulsión: Curso Online de Posicionamiento en Buscadores

Descubre cual es el ratio de conversión de las visitas que llegan a través de un buscador

Un estudio publicado por WebSideStory revela los ratios de conversión a cliente de las visitas que provienen de buscadores.

La mayor parte de los responsables de marketing coinciden en que el ratio de conversión de visita a cliente es una de las métricas a seguir mensualmente y a intentar mejorar día tras día con acciones de optimización de sus sites y con acciones de optimización de campañas. Pero cuando ya tienes ese ratio, se echa de menos el poder compararlo con otros sites, para saber si se está por encima o por debajo de la media.

La semana pasada, WebSideStory publicó un estudio sobre los promedios de conversión de visita a cliente, de los cuatro principales buscadores.

El estudio ha sido realizado a partir de las estadísticas recabadas por las páginas web de comercios electrónicos B2C (de empresa a consumidor final) que utilizan HBX de WebSideStory como software de analítica.

El estudio analiza datos de millones de usuarios que visitan estas páginas e incluye datos acerca del tráfico llegado tanto por posicionamiento orgánico como por compra de palabras clave. El total de sites analizados suman más de 3.000 millones de dólares en ventas anuales.

El estudio nos muestra que durante el mes de enero, fue el buscador de AOL el que más conversiones a cliente consiguió en sites de comercio electrónico (6,17 %), seguido por MSN (6,03 %), Yahoo (4,07 %) y Google (3,83 %).

Una posible explicación para entender el hecho de que los ratios de conversión de usuarios de portales generalistas sean mayores que un portal orientado 100 % a búsqueda podría ser que los portales que además del buscador incluyen otros contenidos y servicios, atraen a un tipo de usuario que está más predispuesto a comprar. En cambio, los portales como Google, 100% enfocados a búsqueda, atraen más a gente que busca información y que tiene menos intención de compra.

El estudio muestra que los cuatro grandes buscadores ofrecen ratios de conversión mucho mayores que el resto de buscadores: el promedio de conversión durante del mes de enero 2006 para el total de buscadores fue de 1,97 %. Cifra que contrasta con el 2,30 % que era el promedio de los 3 últimos meses del 2005 (aunque es normal que el índice haya bajado, ya que en esta última cifra se incluye la campaña de Navidad 2005).

Otra consideración acerca de este estudio es que el ratio de conversión de los sites de comercio electrónico que se han analizado, están sin duda, por encima de la media de su sector. Esto es debido a que el hecho de utilizar HBX como sistema de analítica web les permite optimizar sus sites para maximizar la conversión de usuarios a clientes:

  • Por un lado, las páginas web que utilizan HBX ya han suprimido las campañas en buscadores que no tienen rendimiento económico.
  • Por otro lado, este tipo de software permite conocer paso a paso qué es lo que los usuarios hacen en sus páginas web y pueden por ejemplo, conocer en qué partes de los formularios los usuarios abandonan sus compra, cosa que les permite modificar los formularios para que el máximo número de usuarios llegue al final de la compra.

Aún así, el estudio es interesante y permite que podamos situar las cifras obtenidas por nuestra página web o por las de nuestros clientes, en un contexto mucho mayor, y poder conocer así si debemos mejorar para aumentarlo, o si debemos congratularnos por estar por encima de la media.

Una consideración final acerca del estudio: el estudio ha sido realizado en base a webs de comercio electrónico mayoritariamente de Estados Unidos. De ahí que el ratio de AOL sea tan elevado. Sería interesante disponer de este mismo estudio, pero con cifras que hagan referencia al comercio electrónico en España… la pregunta es: ¿veríamos aparecer a Terra entre los buscadores de mayor conversión?

Los datos:

Ratio de conversión promedio para los 4 mayores buscadores, en sites de comercio electrónico, en enero 2006:

AOL: 6,17 %
MSN: 6,03 %
Yahoo: 4,07 %
Google: 3,83 %
Cifra promedio del total de buscadores: 1,97 %

Más información sobre el estudio Internet News y en Websidestory