Artículos sobre Posicionamiento en Buscadores.

Obama y el robots.txt de la Casa Blanca

Se ha hablando mucho acerca de cómo Barack Obama ha aprovechado internet para dar a conocer su candidatura y para conseguir movilizar votantes. También se ha comentado en muchos blogs el ambicioso plan tecnológico de Obama para EEUU (puede leerse aquí).

Pero una de las cosas que me ha llamado más la atención y que pocas personas han advertido: el cambio que ha sufrido el Robots.txt de la página web de la Casa Blanca, muy en línea con lo que Obama predica.

¿Qué es un Robots.txt?

Es un archivo de texto que contiene instrucciones sobre las páginas visitables y las no visitables por los Robots, de una página web. Es decir, indica qué partes de la página web no deben ser escaneadas por los robots.

Normalmente, se trata de contenido que aparece en la página web, pero sólo se desea que sea accesible a la gente que navega por la web, no se desea que éste contenido aparezca indexado en los buscadores. También se utiliza cuando un gestor de contenidos genera contenido duplicado y por lo tanto, penalizado por los buscadores.

Este archivo se crea siguiendo las instrucciones que podemos encontrar aquí: Robots, y todos los robots que siguen el “Protocolo de Exclusión de Robots“ se comprometen a hacer caso de estas instrucciones.

Si una página web no tiene creado este archivo de texto, los robots entienden que pueden indexarla (aunque al haber buscado el robots.txt de esa página los robots generan un error 404 y por lo tanto, es recomendable que se cree una página en blanco y se suba por FTP con el nombre de Robots.txt para que de esta manera, los 404 que se generen en la página serán reales y puedan ser depurados por el webmaster).

Volvamos al Robots.txt de la Casa Blanca

Hasta hace unos días, cuando explicaba en clase qué es un archivo Robots.txt y qué es el “Protocolo de Exclusión de Robots” ponía varios ejemplos para ilustrar los diferentes tipos de Robots.txt que podemos crear para dar instrucciones a los robots indexadores:

  • Una página robots.txt en blanco
  • Una página robots.txt con instrucciones más o menos “normales”
  • Una página robots.txt totalmente exagerada y fuera de lugar.

Pues bien… Obama me ha “saboteado” los ejemplos y se ha cargado mi ejemplo de mala praxis en cuestión de Robots.txt: El webmaster de la nueva página web de la Casa Blanca ha creado un nuevo Robots.txt perfectamente realizado, claro y conciso.

El webmaster de George Bush Jr., había creado un Robots.txt con miles y miles de páginas con el acceso prohibido a los robots. Ni decir cabe que… no había nada interesante en ese contenido (alguna vez me había dedicado a ir leyendo lo que no querían que fuese indexado… fotos de la first lady, discursos, etc…). Pero mostraba bien que los de la Casa Blanca tenían un concepto un tanto arcaico de lo que es internet y sobre la publicación de contenido.

El nuevo websmaster, en este sentido, muestra tener mucho más claro lo que debe ser la página web de una institución como la Casa Blanca.

Vale… ¿pero cómo era ese Robots.txt?

Por suerte, en las diapositivas de mis clases siempre incluyo pantallazos acerca de lo que explico, no sea que me falle la conexión a internet o que allí donde dé la clase no tengan conexión… (qué triste tener que pensar siempre en ésta posibilidad).

Así que bajo éstas líneas (al final del post) incluyo la imagen que tengo archivada y que ahora ya pasa a ser historia… (Observa la barra de scroll del pantallazo… es la que muestra la magnitud del listado)

La página robots.txt actual la puedes ver clicando aquí: Robots.txt de la Casablanca con Obama .

Si deseas más información sobre cómo crear un Robots.txt o para qué sirve, la encontrarás aquí: Robots.txt y también en el Curso Gratuito de Posicionamiento en Buscadores de nuestra página web: Curso de Posicionamiento en Buscadores

Robots.txt de la Casablanca

¿El Triángulo de Oro de Google sigue siendo válido? La respuesta es sí

Quien más quien menos ha visto alguna vez un mapa de calor que corre por la red, realizado con tecnología de Eyetracking, y que muestra lo que se llama “El Triángulo de Oro de Google”: la zona de oro en la que hay que aparecer si se quiere ser algo en la red… el espacio donde confluyen todas las miradas de los usuarios de Google. Yo misma, lo he usado un gran número de veces en clases y conferencias, para mostrar de forma gráfica la importancia de aparecer en las primeras posiciones de Google, sea en forma de Adword, sea en forma de posicionamiento natural (SEO).Eyetracking - Triangulo de Oro de Google

Pero este mapa de calor tiene sus años, y cada vez que lo utilizo me pregunto si seguirá siendo realmente válido ahora que Google muestra los resultados incluyendo mapas, libros, definiciones, etc. (La imagen que muestro junto a estas líneas corresponde al mapa de calor clásico al que me estoy refiriendo).

De ahí que una de las cosas que quería testear en las pruebas que hemos estado realizando durante los meses de diciembre y enero para poder elaborar un estudio de Search Marketing orientado a Turismo, utilizando tecnología de Eyetracking, era si el Triángulo de Oro seguía siendo válido, o por lo contrario, ahora aparecía otra figura geométrica. Este es el estudio: Eyetracking Search Marketing

Pues bien, tras realizar los tests (54 personas testeando 4 tareas distintas, en total 216 mapas de calor de páginas de resultados de Google), llegamos a la conclusión de que sigue siendo válido, sobre todo cuando se realizan búsquedas muy concretas y que ofrecen resultados que se encuentran en las primeras posiciones, aunque los Adwords laterales ahora son más vistos de lo muestra el triángulo clásico.Eyetracking Hotel Pulitzer Barcelona PCT

Veamos algunos de estos mapas de calor:

Este que muestro a continuación es un mapa de calor para la búsqueda “Hotel Púlitzer Barcelona” (sin comillas) agregando los mapas de 30 usuarios testeados, tomados al azar y sin segmentar. La tarea era encontrar la URL oficial del Hotel Púlitzer (se encontraba tanto en Google Maps como en el primer resultado SEO). El mapa que muestro es un mapa de porcentajes de fijación de mirada (el mismo tipo el «clásico», sólo que nuestro eyetracker es diferente).

Podemos observar como se forma el triángulo, aunque un poco desdibujado por culpa del mapa.

 

Si este mismo mapa de calor lo mostramos por valores absolutos de fijación de la mirada, entonces Eyetracking Hotel Pulitzer Barcelona Absolutosí vemos el triángulo, y observamos también que algunos usuarios han mirado los Adwords laterales, cosa que casi no se ve en el mapa por porcentajes. (Ver imagen adjunta)

Una observación curiosa acerca de los Adwords laterales: Si para esta misma búsqueda tomamos los mapas de calor de usuarios de menos de 25 años, observaremos algo muy diferente: ni uno solo ha mirado los Adwords laterales y el triángulo aparece limpio aunque algo desfigurado, y centrado en los Adwords superiores y los resultados naturales.

Parece que los menores de 25 tienen muy claro que los Adwords laterales son publicidad y que por lo tanto no merecen su atención… (este tema es importante y vale la pena analizarlo más a fondo ya que hace referencia a las teorías de Comunicación Postmoderna, así que tanto el mapa como el tema lo trataré en otro post).

Volviendo al Triángulo de Oro de Google, aunque en este post sólo hemos analizado uno de los mapas agregados de las 4 tareas que testeamos, mirando el resto de mapas también queda claro que por norma general, la gente sigue mirando los resultados de Google de la misma forma que lo hacía hace unos años, aunque ahora contengan información adicional. O al menos es así, en las búsquedas concretas, como por ejemplo el nombre de un hotel. Veremos en otros posts cómo por búsquedas más generales la cosa se complica un poco más.

El estudio completo puede descargarse aquí: Eyetracking Search Marketing

Este otro estudio también puede interesarte, analiza la mirada de los usuarios respecto a si ven o no ven la publicidad. Eyetracking_Media_Espana

Google Maps vs SEO: sigue ganando SEO

Durante los meses de diciembre y enero hemos estado llevando a cabo toda una batería de tests para elaborar un estudio de Search Marketing orientado a Turismo. Los tests para el estudio se han realizado utilizando tecnología de Eyetracking  y una entrevista personal una vez finalizado el test, para conocer dónde miraban los usuarios testeados y por qué miraban allí y no en otra parte.

En total, se testearon 54 personas de edades comprendidas entre los 16 años y los 68 años.

Los resultados han sido muy interesantes y los iré publicando en este blog a medida que vayamos avanzando en el análisis de los datos.

La primera de las cosas curiosas que hemos observado es que si bien aparecer en Google Maps es importante, sigue siendo más importante salir el primero por posicionamiento natural. Sobre todo en búsquedas concretas. En búsquedas generales del tipo «hotel en barcelona«, no hay ninguna duda sobre la importancia de aparecer en Google Maps. En este post vamos a analizar las búsquedas concretas.

Veamos por qué hemos llegado a esta conclusión:

Una de las tareas que debían llevar a cabo los usuarios era encontrar la página web del Hotel Púlitzer de Barcelona entre todos los resultados que aparecen en Google al buscar “hotel púlitzer Barcelona” (sin las comillas). Apareceían 234.000 resultados.
Eyetracking Hotel Pulitzer Barcelona
Si observamos la imagen del mapa de calor que muestro junto a éstas líneas, podemos ver que la página oficial del hotel aparece tanto en Google Maps como en la primera posición por posicionamiento natural. Pues bien:

  • Un 51,85% de los usuarios clicaron en el primer resultado de posicionamiento natural.
  • Un 40,74% de los usuarios clicaron sobre la web que aparece en Google Maps.
  • Un 7,41% de los usuarios (4 personas) se equivocaron y clicaron sobre Adwords u otros resultados naturales, convencidos de que clicaban la web del hotel.

Cuando preguntamos por qué habían clicado donde habían clicado las respuestas fueron las siguientes:

  • Los que habían clicado en resultados SEO indicaron que se fían más de estos resultados. De hecho, el 22% ni siquiera había mirado la zona de Google Maps y había ido directamente a la zona SEO. Al preguntar por qué no se fiaban, la mayoría indicó que les parecía que era publicidad y en cambio sabían que los resultados que siguen al mapa no son publicidad.
  • Los que clicaron en el mapa, indicaron que clicaron en el mapa porque aparecía en medio de la pantalla y que directamente ya vieron que era la página del hotel.

La mayor parte de las personas indicaron que la URL del hotel fue lo que les indicó que era la web oficial del hotel (obviamente le llamaban la “dirección del hotel”, no la URL, escribo URL para facilitar la redacción de este post). Un 25% indicaron que también el hecho de que el título del resultado indica “Web Oficial” les había reafirmado que estaban en lo cierto y que esa era la web oficial.

  • Las 4 personas que se equivocaron y clicaron sobre otros resultados, estaban convencidas de que habían acertado y habían dado con la web correcta (hasta que vieron la web a la que llegaban tras clicar, claro, momento en el que se daban cuenta de su error). En la mayoría de los casos fue la URL la que les despistó y les hizo creer que estaban en el resultado correcto. Las URLs que clicaron eran del tipo “Hotel-Pulitzer-Barcelona.h.rez.com” de ahí que algunas personas se confundieran. Aunque también los títulos de los anuncios ayudaron a confundirlas: «Hotel Pulitzer Barcelona» como título de un Adword es capaz de confundir a cualquiera si no se tienen en cuenta otros parámetros.

En cuanto a los Adwords en general, casi todo el mundo miró en algún momento los 3 anuncios que aparecen destacados en la zona superior (sólo un 25% no los miró), en cuanto a los Adwords laterales, no tuvieron tanta suerte, y sólo un 22% los miraron.

En otro post analizaremos de nuevo el tema Google Maps vs SEO, pero utilizando un ejemplo en el que los resultados que ofrece la página, en ambos casos son distintos (lo avanzo… gana SEO de nuevo).

Nota posterior: El estudio puedes descargarlo aquí: Eyetracking Search Media .

Presentación de la Guía de Comercio Electrónico en Igualada

Hoy hemos llevado a cabo la presentación de la Guía de Comercio Electrónico en la sede de la Cámara de Comercio de Barcelona en Igualada.

La presentación ha sido realizada por el Director de dicha sede. Para acompañar el acto, Alex de Anta ha dado una charla sobre los factores clave de éxito en la implementación de un Comercio Electrónico, y yo he dado una charla explicando una parte de la Guía.

Como el tiempo era limitado (1h y media), únicamente he explicado las 9 técnicas básicas para atraer visitas a una página web, y las 6 técnicas básicas para convertirlas a contacto comercial. Éstas técnicas sólo las he explicado por encima, lamentablemente, ya que hubiese necesitado un mínimo de 10 horas para explicar esta parte en forma de curso monográfico.

En la propia guía puede leerse ésta misma información, pero más extensa y completa. También he indicado a los participantes que en la web de GeaMarketing y en éste blog encontrarán información complementaria y otras presentaciones que les pueden ayudar a ampliar alguno de los puntos tratados en la ponencia.

He olvidado comentar a las empresas que han acudido a la presentación de la Guía, que la Cámara de Comercio subvenciona el 50% del coste de la realización de un pequeño estudio sobre el Plan Estratégico de Implementación de un Comercio Electrónico, para cualquier empresa de la demarcación de Barcelona que desee empezar a vender a través de Internet. El coste total que tiene que soportar la empresa es de 750 euros y puede solicitarse a través de las delegaciones de la Cámara de Barcelona.

La próxima presentación será éste jueves día 27 de noviembre en Mollet del Vallés. A las 9h30′ de la mañana, en la sede que la Cámara de Comercio de Barcelona mantiene en esta población.

Nos vemos allí.

I Mesa redonda en buscadores web: marketing y posicionamiento en buscadores

El próximo martes 28 de octubre, a las 18:30, se celebrará en el Auditorio del edificio Ramblas de la Universitat Pompeu Fabra (Ramblas 32, Barcelona), la presentación de una nueva edición del Máster en Posicionamiento en Buscadores y Marketing Digital, así como una mesa redonda sobre Buscadores Web.

Tengo el placer de compartir mesa redonda con Fernando Macià de Human Level Communications, que hablará de SEO y con Cristòfol Rovira del Grupo de Investigación DigiDoc de la UPF que hablará de formación e investigación en buscadores. Yo hablaré de SEM (Marketing en Buscadores) y explicaré «Las 6 técnicas que nos ayudarán a optimizar nuestro presupuesto de Marketing en buscadores«.

Cada uno de nosotros presentará su visión sobre los buscadores y compartiremos experiencias relacionadas con la inteligencia de mercado, la estrategia de contenidos y el posicionamiento de marca.

Al final de las ponencias se abrirá un debate en el que los asistentes podrán plantear sus preguntas.

Pienso que será un acto interesante, tanto porque los tres puntos de vista y las aproximaciones a los buscadores de los tres ponentes son muy diferentes, como porque no es de cada día que se puede escuchar a Fernando Macià y a Cristòfol Rovira. Estoy segura de que yo misma aprenderé un montón de cosas nuevas. Además, como el Máster es online, es una oportunidad muy buena para conocer a los alumnos que asistan al acto, de esta manera, cuando hablemos con ellos en los foros de debate les podremos poner cara… que es algo que siempre echo de menos en este tipo de formación.

Nos vemos!

Más información sobre el acto: Mesa Redonda de Posicionamiento en Buscadores

Esta es la presentación con la que ilustré mi charla:

Nos hablamos.

Google actualiza el valor del PageRank de su barra

El pasado 30 de abril Google actualizó el PageRank que nos muestra en su barra de herramientas. Ésta es la segunda actualización del 2008. La siguiente actualización se espera para finales de septiembre.

¿Qué es el PageRank y qué importancia tiene en el algoritmo de ordenación de resultados?

El PageRank es el algoritmo que Google utiliza para dar un valor numérico a la importancia que tiene una página web. Este valor lo utiliza como parte del algoritmo que marca el orden en el que se muestran los resultados de una búsqueda en Google.

El PageRank se llama así en honor a su creador Larry Page. PageRank no significa «ranking de páginas».

La finalidad de PageRank es asignar un valor numérico a las páginas web según el número de veces que otras páginas las recomienden y según el PageRank que tengan éstas páginas. Es decir, establece la importancia de esa página web.

A lo largo de estos años Google ha ido modificando este algoritmo con el objetivo de neutralizar algunas trampas realizadas por webmasters que desean modificar su posicionamiento de forma fraudulenta. En ésta última actualización parece que también ha modificado el algoritmo ya que numerosas páginas web han bajado su PageRank… aunque, por suerte, otras muchas lo han subido, entre ellas las de algunos de nuestros clientes.

¿Cómo funcionan las actualizaciones?: diferencia entre el PageRank real y el PageRank de la barra de Google

El PageRank que nos muestra la barra de Google sólo se actualiza una vez cada 4 meses, aproximadamente.

La barra nos muestra un PageRank en base 10 en una escala logarítmica. Es decir, es fácil subir de 0 a 1 o de 2 a 3, pero en cambio es muy difícil subir de 5 a 6, y aún más subir de 6 a 7. Pero éste no es el PageRank real de nuestra página, sino el valor que Google le asignó la última vez que actualizó el PageRank de la barra.

Durante 2007 hubo 3 actualizaciones de PageRank en la barra de Google: en enero, en abril y a finales de septiembre. Las previsiones para este año son las mismas: esperamos 3 actualizaciones.

El PageRank que utiliza Google para sus cálculos es mucho más preciso y utiliza una escala mucho mayor, aunque no sabemos cuánto, y en Google hay un hermetismo completo a este respecto, aunque parece que es en base 100. Sus servidores internos lo actualizan diariamente.

¿Cuándo será la próxima actualización?

Si todo sigue su curso, deberíamos esperarla durante el mes de septiembre. Así que todas las acciones para subir el PageRank que llevemos a cabo a partir de ahora, no se verán reflejadas en la barra de Google hasta este mes.

Esto no quiere decir que antes de septiembre, nuestras acciones no sirvan para nada. Nada más lejos de la realidad. Recordemos que Google trabaja con un PageRank a tiempo real.

En mi barra de Google no veo el PageRank, ¿qué tengo que hacer?

Por defecto, la barra de Google no incluye esta información, pero desde las opciones de la barra podrás incluir PageRank, y de esta manera, mientras navegas por la red podrás conocer los PageRank de las páginas que visitas. Esto te ayudará a saber en qué páginas web deberías intentar incluir tus enlaces para que aumente tu PageRank.

Enlaces de interés:

¿Cómo puedo mejorar el PageRank de mi página web?:
http://www.geamarketing.com/posicionamiento/mas_pagerank.php

Curso Online gratuito de Posicionamiento en Buscadores:
http://www.geamarketing.com/posicionamiento_buscadores.php

AJAX, una técnica a usar con moderación

En este artículo explicamos qué es el AJAX, cuándo debe usarse y qué contraindicaciones tiene. También mostramos cómo subsanar algunas de las contraindicaciones.

¿Qué es el AJAX?

Las siglas AJAX significan: Asynchronous JavaScript And XML. Es decir, la combinación de JavaScript y XML de forma asincrónica.

Es una técnica desarrollada para aplicaciones Web interactivas, que consiste en hacer que un conjunto de tres tecnologías ya existentes trabajen juntas, de manera efectiva.

Estas tecnologías son:

  1. (X)HTML y CSS (Hojas de Estilo en Cascada), para dar una estructura y presentar la información en la página web.
  2. JavaScript, utilizado para la interacción dinámica con los datos.
  3. XML, utilizado para la interacción con el servidor web. Aunque no es simpre necesario utilizar XML con las aplicaciones AJAX, ya que por ejemplo, con ficheros de texto plano también se puede almacenar la información.

Al igual que el DHTML, AJAX no es de por sí una tecnología web independiente, sino un término que abarca las tres tecnologías antes mencionadas.

¿Para qué sirve el Ajax?

El Ajax sirve para efectuar cambios en una página web, a voluntad del usuario, sin tener que recargar toda la página de nuevo.

Por ejemplo, en una página web el usuario solicita alguna información que es ofrecida desde la misma página web (como ver la descripción de un producto) y al pulsar sobre el enlace, en la misma página (sin cargarla de nuevo) aparece la información solicitada.

El proceso de mostrar los datos realizado en HTML íntegramente consumiría bastante ancho de banda, ya que todo el HTML debería volver a ser cargado para sólo mostrar los cambios efectuados. En cambio, con una aplicación AJAX es mucho más rápido y no consume ancho de banda.

El JavaScript utilizado en la aplicación AJAX es un lenguaje dinámico, capaz de efectuar cambios en una página Web sin necesidad de re-cargarla. AJAX se asegura de que sólo la información necesaria sea solicitada y procesada, empleando SOAP u otro lenguaje de servicios web basado ligeramente en XML.

De ahí que a nivel técnico, se obtengan 3 ventajas: un tiempo de carga mucho menor, ahorro del ancho de banda del usuario y carga mucho menor del servidor donde está alojada la web.

Los problemas de AJAX

Problemas con la indexación en buscadores:

AJAX es utilizado por Google, Yahoo, Amazon y un sinfín más de buscadores, portales y creadores de contenido, pero no lo utilizan de forma general y masiva tal como algunos piensan. Google, por ejemplo, que apoya que los webmasters utilicen AJAX en sus programaciones, lo utiliza él mismo en GMail, en Google Suggest, en Google Maps, pero no en absolutamente todas sus páginas web.

El problema con AJAX es que el contenido que se muestra dentro de la aplicación que utiliza AJAX, no se indexa en los buscadores. Esto es así porque las arañas (spiders) de los buscadores no son capaces de interactuar con la aplicación AJAX y conseguir que se active el comando que muestra el contenido.

De ahí que sea una mala idea por ejemplo, crear un listado con el nombre de nuestros productos y hacer que con una aplicación AJAX al pulsar sobre un nombre de producto, se muestre la descripción del producto y su fotografía, a la derecha del listado. Si hacemos esto, las descripciones de los productos y sus imágenes no quedarán indexadas ni en Google ni en cualquier otro buscador.

Aunque no todo son malas noticias, ciertas formas de trabajar con AJAX sí que indexan, por ejemplo, las que juegan a mostrar o no mostrar contenidos utilizando márgenes positivos y negativos. Así que basta con que tengamos en cuenta a la hora de programar si las arañas podrán pasar o no podrán pasar.

Problemas con la accesibilidad:

Si partimos de la base que nuestras páginas web deberían ser siempre accesibles a todo tipo de navegadores y de usuarios y al menos deberían cumplir el estándar A del W3C (http://www.w3.org), nos encontramos en que la mayor parte de scripts que mejoran apariencia y la interactividad de una página web tienen problemas de accesibilidad. El AJAX también los tiene.

Como hemos visto al inicio de este artículo, la utilización de AJAX implica la utilización de JavaScript, y algunos navegadores no soportan este tipo de programación. Aunque como veremos más adelante esto tiene solución.

Pero tengamos en cuenta que una gran parte de las aplicaciones AJAX que encontraremos en las librerías que existen en Internet no han subsanado este problema y por lo tanto, son aplicaciones que no cumplen los standares W3C (al final de estas líneas ofrecemos enlaces a librerías de código y a artículos que tratan el tema de la accesibilidad y AJAX).

AJAX, a usar con moderación

Tal como hemos visto en apartado anterior, a pesar de que las aplicaciones AJAX aportan dinamismo, interactividad y reducción de ancho de banda a una página web, también tienen inconvenientes a nivel de indexación en buscadores y a nivel de accesibilidad. Por lo tanto, debemos tener en cuenta y neutralizar lo siguiente:

  1. Si utilizamos AJAX en nuestras páginas web, debemos ser conscientes de que el contenido que se muestre dentro de la aplicación AJAX no será indexado por los buscadores. Para subsanar este detalle, podemos crear este contenido de forma redundante y hacerlo accesible a las arañas a través de un sitemap o a través de enlaces en el pie de página de la web.
  2. Si utilizamos AJAX para hacer más interactiva nuestra página, debemos tener en cuenta que no cumpliremos el nivel A de accesibilidad, a menos que utilicemos las librerías de código aprobadas por el W3C o medios para navegar por la web sin necesidad de utilizar JavaScript.

Enlaces relacionados

Nueva información sobre la indexación de AJAX en Google (marzo 2010): http://code.google.com/intl/es/web/ajaxcrawling/

Ejemplos de páginas web que utilizan AJAX y librerías con código AJAX para ser utilizadas por webmasters:
http://ajaxpatterns.org/Ajax_Examples

Artículos donde se explica cómo conseguir código AJAX que sí cumple con el nivel A de accesibilidad del W3C:
http://www.maxkiesler.com/

Listado con errores comunes de accesibilidad:
http://www.w3.org/TR/WCAG20-SCRIPT-TECHS/#N11799

Google actualiza el valor del PageRank que muestran sus barras

Actualización del PageRank de Google en mayo 2007.

Tal como estaba previsto, éste fin de semana Google ha actualizado el PageRank que se muestra en las barras de Google que los usuarios tienen instaladas en sus navegadores. Google sólo actualiza estos datos cada cuatro meses.

¿Qué es el PageRank y qué importancia tiene en el algoritmo de ordenación de resultados?

El PageRank es el algoritmo que Google utiliza para dar un valor numérico a la importancia que tiene una página web. Este valor lo utiliza como parte del algoritmo que marca el orden en el que se muestran los resultados de una búsqueda en Google.

El PageRank se llama así en honor a su creador Larry Page. PageRank no significa «ranking de páginas».

La finalidad de PageRank es asignar un valor numérico a las páginas web según el número de veces que otras páginas las recomienden y según el PageRank que tengan éstas páginas. Es decir, establece la importancia de esa página web.

Desde el 24 de enero (día en que Google cambió su algoritmo de ordenación para neutralizar algunas de las trampas que realizaban webmasters desaprensivos), en el PageRank también influye la confiabilidad de la página web… (pero esto no lo explicaremos ahora, sino que será motivo de otro artículo).

¿Cómo funcionan las actualizaciones?: diferencia entre el PageRank real y el PageRank de la barra de Google

El PageRank que nos muestra la barra de Google sólo se actualiza una vez cada 4 meses, aproximadamente.

La barra nos muestra un PageRank en base 10 en una escala logarítmica. Es decir, es fácil subir de 0 a 1 ó de 2 a 3, pero en cambio es muy difícil subir de 5 a 6, y aun más subir de 6 a 7. Pero este no es el PageRank real de nuestra página, sino el valor que Google le asignó la última vez que actualizó el PageRank de la barra.

La última actualización se llevó a cabo el 24 de enero y esta vez lo ha hecho el 1 de mayo, unos días antes de que se cumplieran los 4 meses preceptivos.

Durante 2006 hubo 4 actualizaciones de PageRank: en febrero, en abril, en julio y a finales de septiembre. Es decir, en 4 ocasiones durante 2006 Google ha calculado el valor del PageRank en base 10 y lo ha exportado a los servidores que alimentan las barras de Google. Durante el 2007 está siguiendo el mismo patrón.

El PageRank que utiliza Google para sus cálculos es mucho más preciso y utiliza una escala mucho mayor, aunque no sabemos cuánto, y en Google hay un hermetismo completo a este respecto, aunque parece que es en base 100. Sus servidores internos lo actualizan diariamente.

¿Cuándo será la próxima actualización?

Si todo sigue su curso, deberíamos esperarla hacia principios del mes de septiembre. Así que todas las acciones para subir el PageRank que llevemos a cabo a partir de ahora, no se verán reflejadas en la barra de Google hasta septiembre.

Esto no quiere decir que antes de septiembre, nuestras acciones no sirvan para nada. Nada más lejos de la realidad. Recordemos que Google trabaja con un PageRank a tiempo real.

¿Cómo conocer el PageRank en tiempo real?

El PageRank exacto y con valor numérico, no lo podemos saber en tiempo real, pero sí podemos conocer una aproximación al PageRank real, aunque es en base 4 en lugar de en base 10 y con valores relativos.

Para conocer nuestro PageRank real en base 4, nos basta con registrarnos en Google como webmasters (Google ‘ Todo acerca de Google ‘ Información para webmasters ‘ Herramientas para webmasters), aquí podremos dar de alta nuestro site, Google nos pedirá una verificación del site (para asegurarse de que realmente somos el webmaster del site) y desde aquí, podremos ver el PageRank de nuestras páginas en tiempo real y en base 4. Google nos indica si las páginas tienen PageRank alto, medio, bajo o cero.

No es mucho lo que conseguimos con esto, pero al menos sabremos si tenemos PageRank asignado en todas las páginas, y podremos ir viendo si va aumentando el número de páginas de nuestra web que pasan de medio a alto, o de bajo a medio.

En mi barra de Google no veo el PageRank, ¿qué tengo que hacer?

Por defecto, la barra de Google no incluye esta información, pero desde las opciones de la barra podrás incluir PageRank, y de esta manera, mientras navegas por la red podrás conocer los PageRank de las páginas que visitas. Esto te ayudará a saber en qué páginas web deberías intentar incluir tus enlaces para que aumente tu PageRank.

Enlaces de interés:

¿Cómo puedo mejorar el PageRank de mi página web?:
http://www.geamarketing.com/posicionamiento/mas_pagerank.php

Curso Online gratuito de Posicionamiento en Buscadores:
http://www.geamarketing.com/posicionamiento_buscadores.php

¿Cómo se indexa el https?

La indexación del https es uno de esos misterios que hace la vida de los SEO más interesante. Si bien sabemos que es posible indexarlo en la mayor parte de los buscadores, casi nadie sabe cómo conseguirlo en el mínimo tiempo posible.

¿Qué es el https?

El https es la versión segura del protocolo http. La diferencia entre uno y el otro es que el primero transmite los datos cifrados, y el segundo los transmite sin cifrar.

El sistema https utiliza un cifrado basado en las Secure Socket Layers (ssl) para enviar la información.

La decodificación de la información depende del servidor remoto y del navegador utilizado por el usuario.

Es utilizado principalmente por entidades bancarias, tiendas en línea, y cualquier tipo de servicio que requiera el envío de datos personales o contraseñas.

¿Cómo funciona el https?

Contrariamente a lo que piensa mucha gente, el https no impide el acceso a la información, sólo la encripta cuando la transmite. De ahí que el contenido de una página web que utiliza el protocolo https pueda ser leído por las arañas de los buscadores. Lo que no puede ser leído es el contenido que se envía desde esa página web a su servidor, por ejemplo, el login y la contraseña de acceso a una zona privada de la página web.

El puerto estándar para este protocolo es el 443.

¿Cómo sabemos que realmente se indexa el https?

Google indexa https desde inicios del 2002 y progresivamente, el resto de buscadores han ido adaptando su tecnología para indexar también el https.

El último buscador en hacerlo ha sido MSN, que lo consiguió en junio 2006.

Si buscamos «https://www.» o bien inurl:https en los principales buscadores, encontraremos páginas https indexadas en ellos.

¿Cómo podemos indexar nuestro https?

En principio, de forma natural podemos indexar nuestras páginas en https, pero como este protocolo transmite la información de forma mucho más lenta, algunas veces las arañas no consiguen descargar las páginas en el tiempo que tienen establecido y se van sin indexarlo. Este es el principal problema con el que nos podemos encontrar. Lo resolveremos intentando disminuir el tiempo de descarga de estas páginas.

Cómo podemos acelerar la indexación del https

Existen dos técnicas:

  1. Google Sitemap: Incluir en nuestro sitemap las páginas https (nos referimos al google sitemap, no al sitemap para humanos), y darlo de alta en sitemaps de google.
  2. Guerrilla: repartir por todo Internet enlaces que vayan a nuestras páginas https, y conseguir de esta forma que las arañas que están indexando las páginas donde tengamos los enlaces, entren también en la parte https de nuestra web.

Cómo podemos hacer que no se indexe nuestro https

No es tan fácil cómo parece. No nos sirve incluir las páginas https en nuestro robots.txt. Cada puerto necesita su propio robots.txt, así que deberemos crear un robot.txt para nuestras páginas http y otro para nuestras páginas https. O sea, deberemos tener también una página llamada

https://www.nombredelapagina.com/robots.txt

Si necesitas ayuda para indexar o desindexar tus páginas https, no dudes en contactarnos. Estaremos encatados de asistirte.

Información complementaria:

Blog de MSN acerca de indexación – Artículo donde explican que MSN empieza a indexar https
http://blogs.msdn.com/livesearch/archive/2006/06/28/649980.aspx

Información de Google acerca de cómo no indexar https:
http://www.google.es/support/webmasters/bin/answer.py?answer=35302

Más información sobre sitemaps de google:
SiteMaps de Google
http://www.geamarketing.com/articulos/Descubre_indexacion_futuro_Google_SiteMap.php

Curso online, gratuito, de posicionamiento en buscadores: Curso de posicionamiento en buscadores
http://www.geamarketing.com/posicionamiento_buscadores.php