Entradas

Presentación de la Guía de Marketing Digital en Manlleu

Cámara de Comercio de BarcelonaHoy se ha presentado en Manlleu, en la sede que la Cámara de Comercio de Barcelona mantiene en esta ciudad, la Guía de Marketing Digital publicada por ésta cámara y por PIMESTIC.

Parte del acto de presentación ha consistido en una ponencia mía titulada “Las 9 Técnicas para Atraer Visitas a una Página web”. En esta charla explico las 9 formas de atraer tráfico a una página web.

La presentación ha sido todo un éxito,  la sala estaba llena, las empresas han hecho preguntas y al salir, bastante gente se ha quedado para hablar conmigo y para interesarse por las ayudas de PIMESTIC para empresas.

Como siempre, quizás me he entretenido demasiado en el posicionamiento en buscadores, pero dado que es la técnica número 1, la más efectiva y la más barata, pienso que vale la pena explicar un poco más de lo que el tiempo me permite… hoy no ha sido una excepción. También al explicar cómo optimizar una campaña SEM pienso que me he alargado demasiado… pero de nuevo, la gente preguntaba y pedía más. ¿Cómo voy a negarme?

Total, que en lugar de una hora, mi presentación ha durado 2 horas y media… pero nadie se ha quejado, ni se ha ido antes de finalizarla, así que creo que la han encontrado útil y de inmediata aplicación en sus negocios.

Por si alguna persona del público visita el blog, aquí van los enlaces relacionados con la ponencia:

La próxima: en Vilafranca del Penedés el día 31 de marzo a las 9h30′, en la sede de la Cámara de Comercio de Barcelona en esta ciudad.

Obama y el robots.txt de la Casa Blanca

Se ha hablando mucho acerca de cómo Barack Obama ha aprovechado internet para dar a conocer su candidatura y para conseguir movilizar votantes. También se ha comentado en muchos blogs el ambicioso plan tecnológico de Obama para EEUU (puede leerse aquí).

Pero una de las cosas que me ha llamado más la atención y que pocas personas han advertido: el cambio que ha sufrido el Robots.txt de la página web de la Casa Blanca, muy en línea con lo que Obama predica.

¿Qué es un Robots.txt?

Es un archivo de texto que contiene instrucciones sobre las páginas visitables y las no visitables por los Robots, de una página web. Es decir, indica qué partes de la página web no deben ser escaneadas por los robots.

Normalmente, se trata de contenido que aparece en la página web, pero sólo se desea que sea accesible a la gente que navega por la web, no se desea que éste contenido aparezca indexado en los buscadores. También se utiliza cuando un gestor de contenidos genera contenido duplicado y por lo tanto, penalizado por los buscadores.

Este archivo se crea siguiendo las instrucciones que podemos encontrar aquí: Robots, y todos los robots que siguen el “Protocolo de Exclusión de Robots“ se comprometen a hacer caso de estas instrucciones.

Si una página web no tiene creado este archivo de texto, los robots entienden que pueden indexarla (aunque al haber buscado el robots.txt de esa página los robots generan un error 404 y por lo tanto, es recomendable que se cree una página en blanco y se suba por FTP con el nombre de Robots.txt para que de esta manera, los 404 que se generen en la página serán reales y puedan ser depurados por el webmaster).

Volvamos al Robots.txt de la Casa Blanca

Hasta hace unos días, cuando explicaba en clase qué es un archivo Robots.txt y qué es el “Protocolo de Exclusión de Robots” ponía varios ejemplos para ilustrar los diferentes tipos de Robots.txt que podemos crear para dar instrucciones a los robots indexadores:

  • Una página robots.txt en blanco
  • Una página robots.txt con instrucciones más o menos “normales”
  • Una página robots.txt totalmente exagerada y fuera de lugar.

Pues bien… Obama me ha “saboteado” los ejemplos y se ha cargado mi ejemplo de mala praxis en cuestión de Robots.txt: El webmaster de la nueva página web de la Casa Blanca ha creado un nuevo Robots.txt perfectamente realizado, claro y conciso.

El webmaster de George Bush Jr., había creado un Robots.txt con miles y miles de páginas con el acceso prohibido a los robots. Ni decir cabe que… no había nada interesante en ese contenido (alguna vez me había dedicado a ir leyendo lo que no querían que fuese indexado… fotos de la first lady, discursos, etc…). Pero mostraba bien que los de la Casa Blanca tenían un concepto un tanto arcaico de lo que es internet y sobre la publicación de contenido.

El nuevo websmaster, en este sentido, muestra tener mucho más claro lo que debe ser la página web de una institución como la Casa Blanca.

Vale… ¿pero cómo era ese Robots.txt?

Por suerte, en las diapositivas de mis clases siempre incluyo pantallazos acerca de lo que explico, no sea que me falle la conexión a internet o que allí donde dé la clase no tengan conexión… (qué triste tener que pensar siempre en ésta posibilidad).

Así que bajo éstas líneas (al final del post) incluyo la imagen que tengo archivada y que ahora ya pasa a ser historia… (Observa la barra de scroll del pantallazo… es la que muestra la magnitud del listado)

La página robots.txt actual la puedes ver clicando aquí: Robots.txt de la Casablanca con Obama .

Si deseas más información sobre cómo crear un Robots.txt o para qué sirve, la encontrarás aquí: Robots.txt y también en el Curso Gratuito de Posicionamiento en Buscadores de nuestra página web: Curso de Posicionamiento en Buscadores

Robots.txt de la Casablanca

Ciclo de Conferencias Abiertas: “Las 16 cosas que hay que saber para vender online”

Hoy he tenido el placer de impartir ésta clase de Marketing Digital, en el Instituto Universitario de Posgrado, institución que imparte Másters on-line para profesionales, y que fue creada por Santillana Formación junto con las Universidades de Alicante, Carlos III de Madrid y Autónoma de Barcelona.

La clase ha sido impartida en formato videoconferencia y forma parte del Ciclo de Conferencias Abiertas impartidas por ponentes de prestigio del Instituto Universitario de Posgrado (IUP). La grabación de la clase podrá verse próximamente en la página web del IUP (www.iup.es)

Todo se ha desarrollado según lo previsto, exceptuando la duración de la clase, que ha sido un poco más larga de lo que teníamos en mente… y es que me cuesta mucho sintetizar tanta información en tan poco rato. Sobre todo cuando tocamos temas que me apasionan como el SEO, la optimización de campañas SEM y la Usabilidad. No hay manera en que pueda ser más concisa y no ir tanto al detalle… aun así, siempre me quedo con la sensación de que podría haber explicado más cosas. Pero el tiempo es el tiempo… la clase de Marketing Digital completa es, como mínimo, de 20 horas… no hay manera de poder sintetizar esto en una hora, ni leyendo únicamente el índice del temario. De ahí que la clase de hoy se haya limitado a las 9 técnicas básicas para atraer tráfico a una página web, y hemos tocado un poco por encima las 6 técnicas básicas para convertir las visitas en contactos comerciales.

Espero que los alumnos aparte de haber aprendido la existencia de éstas técnicas, hayan quedado con ganas de ampliar la información y ahora mismo estén buscando información complementaria.

Aquí va la presentación utilizada en la clase: Marketing Digital – Técnicas Básicas.

En cuando tenga el enlace de la grabación lo colgaré aquí también.

I Mesa redonda en buscadores web: marketing y posicionamiento en buscadores

El próximo martes 28 de octubre, a las 18:30, se celebrará en el Auditorio del edificio Ramblas de la Universitat Pompeu Fabra (Ramblas 32, Barcelona), la presentación de una nueva edición del Máster en Posicionamiento en Buscadores y Marketing Digital, así como una mesa redonda sobre Buscadores Web.

Tengo el placer de compartir mesa redonda con Fernando Macià de Human Level Communications, que hablará de SEO y con Cristòfol Rovira del Grupo de Investigación DigiDoc de la UPF que hablará de formación e investigación en buscadores. Yo hablaré de SEM (Marketing en Buscadores) y explicaré “Las 6 técnicas que nos ayudarán a optimizar nuestro presupuesto de Marketing en buscadores“.

Cada uno de nosotros presentará su visión sobre los buscadores y compartiremos experiencias relacionadas con la inteligencia de mercado, la estrategia de contenidos y el posicionamiento de marca.

Al final de las ponencias se abrirá un debate en el que los asistentes podrán plantear sus preguntas.

Pienso que será un acto interesante, tanto porque los tres puntos de vista y las aproximaciones a los buscadores de los tres ponentes son muy diferentes, como porque no es de cada día que se puede escuchar a Fernando Macià y a Cristòfol Rovira. Estoy segura de que yo misma aprenderé un montón de cosas nuevas. Además, como el Máster es online, es una oportunidad muy buena para conocer a los alumnos que asistan al acto, de esta manera, cuando hablemos con ellos en los foros de debate les podremos poner cara… que es algo que siempre echo de menos en este tipo de formación.

Nos vemos!

Más información sobre el acto: Mesa Redonda de Posicionamiento en Buscadores

Esta es la presentación con la que ilustré mi charla:

Nos hablamos.

AJAX, una técnica a usar con moderación

En este artículo explicamos qué es el AJAX, cuándo debe usarse y qué contraindicaciones tiene. También mostramos cómo subsanar algunas de las contraindicaciones.

¿Qué es el AJAX?

Las siglas AJAX significan: Asynchronous JavaScript And XML. Es decir, la combinación de JavaScript y XML de forma asincrónica.

Es una técnica desarrollada para aplicaciones Web interactivas, que consiste en hacer que un conjunto de tres tecnologías ya existentes trabajen juntas, de manera efectiva.

Estas tecnologías son:

  1. (X)HTML y CSS (Hojas de Estilo en Cascada), para dar una estructura y presentar la información en la página web.
  2. JavaScript, utilizado para la interacción dinámica con los datos.
  3. XML, utilizado para la interacción con el servidor web. Aunque no es simpre necesario utilizar XML con las aplicaciones AJAX, ya que por ejemplo, con ficheros de texto plano también se puede almacenar la información.

Al igual que el DHTML, AJAX no es de por sí una tecnología web independiente, sino un término que abarca las tres tecnologías antes mencionadas.

¿Para qué sirve el Ajax?

El Ajax sirve para efectuar cambios en una página web, a voluntad del usuario, sin tener que recargar toda la página de nuevo.

Por ejemplo, en una página web el usuario solicita alguna información que es ofrecida desde la misma página web (como ver la descripción de un producto) y al pulsar sobre el enlace, en la misma página (sin cargarla de nuevo) aparece la información solicitada.

El proceso de mostrar los datos realizado en HTML íntegramente consumiría bastante ancho de banda, ya que todo el HTML debería volver a ser cargado para sólo mostrar los cambios efectuados. En cambio, con una aplicación AJAX es mucho más rápido y no consume ancho de banda.

El JavaScript utilizado en la aplicación AJAX es un lenguaje dinámico, capaz de efectuar cambios en una página Web sin necesidad de re-cargarla. AJAX se asegura de que sólo la información necesaria sea solicitada y procesada, empleando SOAP u otro lenguaje de servicios web basado ligeramente en XML.

De ahí que a nivel técnico, se obtengan 3 ventajas: un tiempo de carga mucho menor, ahorro del ancho de banda del usuario y carga mucho menor del servidor donde está alojada la web.

Los problemas de AJAX

Problemas con la indexación en buscadores:

AJAX es utilizado por Google, Yahoo, Amazon y un sinfín más de buscadores, portales y creadores de contenido, pero no lo utilizan de forma general y masiva tal como algunos piensan. Google, por ejemplo, que apoya que los webmasters utilicen AJAX en sus programaciones, lo utiliza él mismo en GMail, en Google Suggest, en Google Maps, pero no en absolutamente todas sus páginas web.

El problema con AJAX es que el contenido que se muestra dentro de la aplicación que utiliza AJAX, no se indexa en los buscadores. Esto es así porque las arañas (spiders) de los buscadores no son capaces de interactuar con la aplicación AJAX y conseguir que se active el comando que muestra el contenido.

De ahí que sea una mala idea por ejemplo, crear un listado con el nombre de nuestros productos y hacer que con una aplicación AJAX al pulsar sobre un nombre de producto, se muestre la descripción del producto y su fotografía, a la derecha del listado. Si hacemos esto, las descripciones de los productos y sus imágenes no quedarán indexadas ni en Google ni en cualquier otro buscador.

Aunque no todo son malas noticias, ciertas formas de trabajar con AJAX sí que indexan, por ejemplo, las que juegan a mostrar o no mostrar contenidos utilizando márgenes positivos y negativos. Así que basta con que tengamos en cuenta a la hora de programar si las arañas podrán pasar o no podrán pasar.

Problemas con la accesibilidad:

Si partimos de la base que nuestras páginas web deberían ser siempre accesibles a todo tipo de navegadores y de usuarios y al menos deberían cumplir el estándar A del W3C (http://www.w3.org), nos encontramos en que la mayor parte de scripts que mejoran apariencia y la interactividad de una página web tienen problemas de accesibilidad. El AJAX también los tiene.

Como hemos visto al inicio de este artículo, la utilización de AJAX implica la utilización de JavaScript, y algunos navegadores no soportan este tipo de programación. Aunque como veremos más adelante esto tiene solución.

Pero tengamos en cuenta que una gran parte de las aplicaciones AJAX que encontraremos en las librerías que existen en Internet no han subsanado este problema y por lo tanto, son aplicaciones que no cumplen los standares W3C (al final de estas líneas ofrecemos enlaces a librerías de código y a artículos que tratan el tema de la accesibilidad y AJAX).

AJAX, a usar con moderación

Tal como hemos visto en apartado anterior, a pesar de que las aplicaciones AJAX aportan dinamismo, interactividad y reducción de ancho de banda a una página web, también tienen inconvenientes a nivel de indexación en buscadores y a nivel de accesibilidad. Por lo tanto, debemos tener en cuenta y neutralizar lo siguiente:

  1. Si utilizamos AJAX en nuestras páginas web, debemos ser conscientes de que el contenido que se muestre dentro de la aplicación AJAX no será indexado por los buscadores. Para subsanar este detalle, podemos crear este contenido de forma redundante y hacerlo accesible a las arañas a través de un sitemap o a través de enlaces en el pie de página de la web.
  2. Si utilizamos AJAX para hacer más interactiva nuestra página, debemos tener en cuenta que no cumpliremos el nivel A de accesibilidad, a menos que utilicemos las librerías de código aprobadas por el W3C o medios para navegar por la web sin necesidad de utilizar JavaScript.

Enlaces relacionados

Nueva información sobre la indexación de AJAX en Google (marzo 2010): http://code.google.com/intl/es/web/ajaxcrawling/

Ejemplos de páginas web que utilizan AJAX y librerías con código AJAX para ser utilizadas por webmasters:
http://ajaxpatterns.org/Ajax_Examples

Artículos donde se explica cómo conseguir código AJAX que sí cumple con el nivel A de accesibilidad del W3C:
http://www.maxkiesler.com/

Listado con errores comunes de accesibilidad:
http://www.w3.org/TR/WCAG20-SCRIPT-TECHS/#N11799

Google actualiza el valor del PageRank que muestran sus barras

Actualización del PageRank de Google en mayo 2007.

Tal como estaba previsto, éste fin de semana Google ha actualizado el PageRank que se muestra en las barras de Google que los usuarios tienen instaladas en sus navegadores. Google sólo actualiza estos datos cada cuatro meses.

¿Qué es el PageRank y qué importancia tiene en el algoritmo de ordenación de resultados?

El PageRank es el algoritmo que Google utiliza para dar un valor numérico a la importancia que tiene una página web. Este valor lo utiliza como parte del algoritmo que marca el orden en el que se muestran los resultados de una búsqueda en Google.

El PageRank se llama así en honor a su creador Larry Page. PageRank no significa “ranking de páginas”.

La finalidad de PageRank es asignar un valor numérico a las páginas web según el número de veces que otras páginas las recomienden y según el PageRank que tengan éstas páginas. Es decir, establece la importancia de esa página web.

Desde el 24 de enero (día en que Google cambió su algoritmo de ordenación para neutralizar algunas de las trampas que realizaban webmasters desaprensivos), en el PageRank también influye la confiabilidad de la página web… (pero esto no lo explicaremos ahora, sino que será motivo de otro artículo).

¿Cómo funcionan las actualizaciones?: diferencia entre el PageRank real y el PageRank de la barra de Google

El PageRank que nos muestra la barra de Google sólo se actualiza una vez cada 4 meses, aproximadamente.

La barra nos muestra un PageRank en base 10 en una escala logarítmica. Es decir, es fácil subir de 0 a 1 ó de 2 a 3, pero en cambio es muy difícil subir de 5 a 6, y aun más subir de 6 a 7. Pero este no es el PageRank real de nuestra página, sino el valor que Google le asignó la última vez que actualizó el PageRank de la barra.

La última actualización se llevó a cabo el 24 de enero y esta vez lo ha hecho el 1 de mayo, unos días antes de que se cumplieran los 4 meses preceptivos.

Durante 2006 hubo 4 actualizaciones de PageRank: en febrero, en abril, en julio y a finales de septiembre. Es decir, en 4 ocasiones durante 2006 Google ha calculado el valor del PageRank en base 10 y lo ha exportado a los servidores que alimentan las barras de Google. Durante el 2007 está siguiendo el mismo patrón.

El PageRank que utiliza Google para sus cálculos es mucho más preciso y utiliza una escala mucho mayor, aunque no sabemos cuánto, y en Google hay un hermetismo completo a este respecto, aunque parece que es en base 100. Sus servidores internos lo actualizan diariamente.

¿Cuándo será la próxima actualización?

Si todo sigue su curso, deberíamos esperarla hacia principios del mes de septiembre. Así que todas las acciones para subir el PageRank que llevemos a cabo a partir de ahora, no se verán reflejadas en la barra de Google hasta septiembre.

Esto no quiere decir que antes de septiembre, nuestras acciones no sirvan para nada. Nada más lejos de la realidad. Recordemos que Google trabaja con un PageRank a tiempo real.

¿Cómo conocer el PageRank en tiempo real?

El PageRank exacto y con valor numérico, no lo podemos saber en tiempo real, pero sí podemos conocer una aproximación al PageRank real, aunque es en base 4 en lugar de en base 10 y con valores relativos.

Para conocer nuestro PageRank real en base 4, nos basta con registrarnos en Google como webmasters (Google ‘ Todo acerca de Google ‘ Información para webmasters ‘ Herramientas para webmasters), aquí podremos dar de alta nuestro site, Google nos pedirá una verificación del site (para asegurarse de que realmente somos el webmaster del site) y desde aquí, podremos ver el PageRank de nuestras páginas en tiempo real y en base 4. Google nos indica si las páginas tienen PageRank alto, medio, bajo o cero.

No es mucho lo que conseguimos con esto, pero al menos sabremos si tenemos PageRank asignado en todas las páginas, y podremos ir viendo si va aumentando el número de páginas de nuestra web que pasan de medio a alto, o de bajo a medio.

En mi barra de Google no veo el PageRank, ¿qué tengo que hacer?

Por defecto, la barra de Google no incluye esta información, pero desde las opciones de la barra podrás incluir PageRank, y de esta manera, mientras navegas por la red podrás conocer los PageRank de las páginas que visitas. Esto te ayudará a saber en qué páginas web deberías intentar incluir tus enlaces para que aumente tu PageRank.

Enlaces de interés:

¿Cómo puedo mejorar el PageRank de mi página web?:
http://www.geamarketing.com/posicionamiento/mas_pagerank.php

Curso Online gratuito de Posicionamiento en Buscadores:
http://www.geamarketing.com/posicionamiento_buscadores.php

¿Cómo se indexa el https?

La indexación del https es uno de esos misterios que hace la vida de los SEO más interesante. Si bien sabemos que es posible indexarlo en la mayor parte de los buscadores, casi nadie sabe cómo conseguirlo en el mínimo tiempo posible.

¿Qué es el https?

El https es la versión segura del protocolo http. La diferencia entre uno y el otro es que el primero transmite los datos cifrados, y el segundo los transmite sin cifrar.

El sistema https utiliza un cifrado basado en las Secure Socket Layers (ssl) para enviar la información.

La decodificación de la información depende del servidor remoto y del navegador utilizado por el usuario.

Es utilizado principalmente por entidades bancarias, tiendas en línea, y cualquier tipo de servicio que requiera el envío de datos personales o contraseñas.

¿Cómo funciona el https?

Contrariamente a lo que piensa mucha gente, el https no impide el acceso a la información, sólo la encripta cuando la transmite. De ahí que el contenido de una página web que utiliza el protocolo https pueda ser leído por las arañas de los buscadores. Lo que no puede ser leído es el contenido que se envía desde esa página web a su servidor, por ejemplo, el login y la contraseña de acceso a una zona privada de la página web.

El puerto estándar para este protocolo es el 443.

¿Cómo sabemos que realmente se indexa el https?

Google indexa https desde inicios del 2002 y progresivamente, el resto de buscadores han ido adaptando su tecnología para indexar también el https.

El último buscador en hacerlo ha sido MSN, que lo consiguió en junio 2006.

Si buscamos “https://www.” o bien inurl:https en los principales buscadores, encontraremos páginas https indexadas en ellos.

¿Cómo podemos indexar nuestro https?

En principio, de forma natural podemos indexar nuestras páginas en https, pero como este protocolo transmite la información de forma mucho más lenta, algunas veces las arañas no consiguen descargar las páginas en el tiempo que tienen establecido y se van sin indexarlo. Este es el principal problema con el que nos podemos encontrar. Lo resolveremos intentando disminuir el tiempo de descarga de estas páginas.

Cómo podemos acelerar la indexación del https

Existen dos técnicas:

  1. Google Sitemap: Incluir en nuestro sitemap las páginas https (nos referimos al google sitemap, no al sitemap para humanos), y darlo de alta en sitemaps de google.
  2. Guerrilla: repartir por todo Internet enlaces que vayan a nuestras páginas https, y conseguir de esta forma que las arañas que están indexando las páginas donde tengamos los enlaces, entren también en la parte https de nuestra web.

Cómo podemos hacer que no se indexe nuestro https

No es tan fácil cómo parece. No nos sirve incluir las páginas https en nuestro robots.txt. Cada puerto necesita su propio robots.txt, así que deberemos crear un robot.txt para nuestras páginas http y otro para nuestras páginas https. O sea, deberemos tener también una página llamada

https://www.nombredelapagina.com/robots.txt

Si necesitas ayuda para indexar o desindexar tus páginas https, no dudes en contactarnos. Estaremos encatados de asistirte.

Información complementaria:

Blog de MSN acerca de indexación – Artículo donde explican que MSN empieza a indexar https
http://blogs.msdn.com/livesearch/archive/2006/06/28/649980.aspx

Información de Google acerca de cómo no indexar https:
http://www.google.es/support/webmasters/bin/answer.py?answer=35302

Más información sobre sitemaps de google:
SiteMaps de Google
http://www.geamarketing.com/articulos/Descubre_indexacion_futuro_Google_SiteMap.php

Curso online, gratuito, de posicionamiento en buscadores: Curso de posicionamiento en buscadores
http://www.geamarketing.com/posicionamiento_buscadores.php

 

La web de BMW expulsada de Google… ¿podría pasarte a ti?

Es la noticia de la semana: La web de BMW alemana ha sido expulsada de Google.de por practicar spam a buscadores.

Ha sido el blog de Matt Cutts quien ha desvelado esta expulsión. Matt es un empleado de Google que escribe uno de los mejores blogs con contenido SEO de la red. Obviamente, Matt no desvela nada que Google no quiera, pero al menos la información que ofrece es siempre de primera mano y viene directamente de su fuente.

Veamos qué es lo que ha ocurrido…

Hace ya unas semanas Matt comentaba que Google va a ponerse mucho más duro contra el spam a buscadores y que entre febrero y marzo va a cambiar su forma de indexar los sites, para combatirlo. No cambiará el algoritmo, pero sus arañas buscarán el spam y lo reportarán para su posterior eliminación.

El problema del spam se está convirtiendo en una pesadilla para los principales buscadores y el caso de BMW no es un caso aislado. Muchos webmasters creen poder engañar a Google y al resto de buscadores utilizando código oculto o camuflando palabras entre sus textos.

Muchas veces, navegando por los resultados de Google te encuentras con páginas que no están correctamente posicionadas… pero no por ser buenas… si no al revés. Te preguntas cómo puede ser que una página tan “cutre” y con un contenido tan pobre, pueda estar en la primera posición por una búsqueda con más de quinientos mil resultados. Si miras bien el código, acabas encontrando la razón. El caso de BMW es también con código oculto, ahora ya no podemos verlo si no es en la imagen que nos muestra Cutt, pero aún hay muchas páginas que practican spam y que Google no ha detectado y expulsado.

Veamos un ejemplo donde aún se puede ver el código oculto:

www.todoalarmas.com

Si buscamos en Google “alarmas hogar”, encontraremos 996.000 resultados. Ésta página está en primer lugar. Si entras en ella verás que no hay motivos aparentes para que ocupe este puesto. Pero si editas su código fuente, descubrirás por qué está en primera posición: un texto oculto en un “no script” con más de 3000 palabras.

Nota: no podrás ver su código si pulsas sobre el botón derecho del mouse y le das a ver código… (de eso ya se han encargado ellos de que no puedas hacerlo), pero sí verás su código si vas a la barra del menú superior y pulsas sobre: ver >> Código fuente.

Veremos cuanto duran…

Mirando si desaparecen o no de Google, también podremos saber cuándo Google ha activado el sistema antispam de indexación.

… y sobre BMW: los de BMW ya han pedido disculpas a Google y Google ya los ha vuelto a poner en la lista de sites a indexar, con lo que en la próxima actualización sus páginas irán volviendo a ser indexadas. Pero se tarda su tiempo (ver meses) en indexar de nuevo una web entera, con todas sus páginas. (A no ser que utilices el “site map” de Google para hacerlo, cosa que no sé si BMW hará… ya lo veremos).

La moraleja de todo esto es: No intentes engañar a Google y céntrate en construir bien las páginas y en tener un contenido interesante que consiga que otras webs te recomienden (esto te hará subir el PageRank). Haz un Plan de Marketing Digital y síguelo.

La moraleja 2 sería: Realmente los buscadores influyen de forma definitiva en el éxito o el fracaso de las páginas web… de lo contrario, BMW no se arriesgaría a ser expulsada por un tema así, ni muchas otras páginas web.

Información complementaria:

Artículo donde explicábamos qué es el spam en buscadores y la posible solución de Google contra él al incluir el algoritmo de Trust Rank para matizar el Page Rank:
Descubre como será el substituto del PageRank de Google: el TRUST RANK

Artículo donde explicábamos qué es el servicio de “site map” de Google y donde explicamos cómo funciona: Descubre la indexación del futuro: Google SiteMap

Texto camuflado por BMW:
http://www.mattcutts.com/blog/ramping-up-on-international-webspam/

Curso gratuito de posicionamiento en buscadores, que no te llevará a la expulsión: Curso Online de Posicionamiento en Buscadores

Descubre cómo será el substituto del PageRank de Google: el TRUST RANK

Desde hace algunos meses se viene especulando sobre la posibilidad de que Google cambie el algoritmo de PageRank por un nuevo algoritmo que filtraría todo el spam a buscadores o al menos intentaría neutralizarlo. Descubre en éste artículo todo lo que se sabe hasta el momento, acerca del nuevo algoritmo cuyo nombre es Trust Rank.

El spam a buscadores se ha convertido en un verdadero problema para Google y el resto de motores de búsqueda. Webmasters sin escrúpulos han creado miles de páginas con el único propósito de enlazar con sus páginas principales y con esto hacer subir su PageRank (en el caso de Google) o cualquier otro algoritmo utilizado por buscadores que tienen en cuenta el número de enlaces que recomiendan una página, a la hora de determinar la importancia de ésta y situarla en mejor posición en los resultados de búsqueda.

Ésta es la técnica utilizada para conseguir que cuando buscas “Ladrones” en Google, te aparezca en primera posición la web de la SGAE.

El nuevo algoritmo de Google evitaría este tipo de prácticas.

La finalidad del PageRank es asignar un valor numérico a las páginas web según el número de veces que otras páginas las recomienden y según el PageRank que éstas tengan a su vez. Es decir, establece la importancia de esa página web. Su lógica es la siguiente: si una página web enlaza con otra página, es que la está recomendando. Y si la recomienda, es que debe ser importante en el ámbito del tema que trata la primera página web. Una recomendación que proviene de una página que a su vez está muy recomendada vale más que una recomendación que provenga de una página que casi nadie recomienda.

Google desea que en las primeras posiciones de los resultados de búsqueda encontremos páginas de cierta relevancia y que estén siendo recomendadas por otras páginas que a su vez también tengan relevancia. Para determinar el PageRank, Google analiza el número de enlaces que provienen de otras páginas web y su PageRank. El Trust Rank, parte de la misma base. Pero en lugar de valorar la importancia de una recomendación en función del PageRank de la página que recomienda, lo hace a partir de una serie de páginas web que han sido consideradas importantes por humanos en lugar de por algoritmos.

A las páginas web que los humanos han determinado como importantes se las considera “web semilla” y a sus enlaces se les asigna un valor. Y será ese valor el que se irá transmitiendo por toda la red.

Para ilustrarlo con un ejemplo: Supongamos que disponemos de una web semilla “A”. “A” trasmitirá un valor de 100 Trust Rank a todas las webs a las que enlace. Éstas páginas, a su vez, transmitirán un Trust Rank de 99 a todas las webs a las que enlacen. Y éstas últimas, transmitirán un Trust Rank de 98 a las que ellas enlacen.

Para mitigar la degradación del Trust Rank a medida que se distancia de las webs semilla, en el algoritmo se ha incluido un corrector que tiene en cuenta el número de grados que hay entre la web semilla y la web que recibe el Trust Rank, sin anular completamente la distancia que las separa de la semilla.

Según un documento de la Universidad de Standford que versa sobre el Trust Rank, de la misma manera que las webs semilla van a transmitir Trust Rank, las webs consideradas spam por los humanos que evalúan las webs, van a transmitir Trust Rank negativo. Según este documento ciertas webs van a restar Trust Rank y cuando una página web sitúe su nivel de Trust Rank por debajo de una determinada cifra, va a convertirse automáticamente en una web que transmite Trust Rank negativo en lugar de positivo. (Se incluye un enlace a éste documento al final del artículo).

La idea del Trust Rank parece buena, pero hay ciertas cuestiones que deben tenerse en cuenta:

¿Quienes serán las webs semilla?

A este respecto hay discrepancias… El documento de Stanford habla de un algoritmo que determinará las webs que pueden ser semilla. En ciertos foros especializados en posicionamiento en buscadores se afirma que serán las webs gubernamentales y de universidades las que empezarán a transmitir el Trust Rank semilla, y en otros foros se afirma que Google hace meses que está contratando gente de todos los países para que evalúen de forma manual las webs más representativas de su país. Esta última posibilidad parece la más plausible, ya que hay indicios de que efectivamente, Google ha contratado evaluadores de webs.

¿Se realizará spam a la inversa?

Así a bote pronto y pensando en este futuro no muy lejano en que el Trust Rank funcionará, se me ocurre que quizás los mismos que juegan a que buscando la palabra “ladrones” salga la SGAE, quizás puedan jugar a sabotear páginas web, enlazándolas despiadadamente desde sus páginas de spam y por lo tanto restándoles Trust Rank, para que no aparezcan en los primeros puestos de los buscadores.

¿Para cuándo tendremos el Trust Rank incorporado en el algoritmo de Google?

Ni idea… aquí nadie se pone de acuerdo. El día menos pensado Google lanza un comunicado y nos informa de que ya lo ha implementado. Lo que sí está claro es que lo comunicará a la prensa y a los internautas. Sin duda supondrá una gran mejora cualitativa en la obtención de los resultados de búsqueda así que Google hará que la gente se entere de ello, dudo que el departamento de comunicación de Google dejase pasar una oportunidad como ésta.

Información complementaria para quien desee ampliar conocimientos:

Enlace al documento de la Universidad de Stanford que versa sobre el Trust Rank: http://dbpubs.stanford.edu:8090/pub/2004-17

Curso de Posicionamiento en Buscadores (que sin duda habrá que modificar el día que se implemente el Trust Rank, pero que ya incluye el nuevo sistema de indexación con el Google Site Map Generator): Curso Online de Posicionamiento en Buscadores. El curso es gratuito.

Descubre las herramientas que harán que tu vida como SEO sea más fácil

En este artículo se describen algunas de las herramientas de gran utilidad a la hora de trabajar el posicionamiento de tu página web en Google y en el resto de buscadores.
En el último artículo describimos cuáles son los 8 factores clave para superar a tu adversario en Google o en otras palabras, qué factores debes tener en cuenta a la hora de realizar un benchmark de tu página web (tu posicionamiento respecto a otras webs) y así saber qué tienes que mejorar para superarlas. Hoy hablaremos de las herramientas que te ayudarán a realizar ese benchmark.

Cómo conocer cuantas páginas tienes indexadas en los principales buscadores

Ya indicamos que el comando a insertar en las cajitas de búsqueda de los principales buscadores es:
site:nombredeweb.com
(Substituyendo “nombredeweb” por el nombre de la web que desees analizar y sin poner un espacio entre “site:” y la url).

Pero hay una herramienta que permite que lo hagas simultáneamente en varios buscadores y que además guarda un histórico de tu posicionamiento para que veas tu evolución a lo largo de los meses. Completamente gratuita: Marketleap Marketleap es probablemente una de las mejores webs/herramientas para conocer tu posicionamiento.

En el enlace que indicamos, basta con que incluyas la url de tu página web (y hasta 3 webs más), introduzcas el código de seguridad, y en un momento sabrás cuántas páginas tienes indexadas en 6 buscadores, entre los que se incluye Google, Yahoo y MSN. Cuando te muestre los resultados, en la parte derecha superior te ofrecerá ver el histórico de tus consultas y poder conocer así tu evolución.

Si compruebas que tienes menos páginas indexadas de las que realmente tienes colgadas en la red, quiere decir que las arañas de los buscadores no entran en todas tus páginas.

Cómo conocer la densidad de las palabras clave en el texto de una página web

Hay varias páginas web que ofrecen este servicio. Si el peso de la página no es muy elevado, Ranks NL nos ofrece un muy buen análisis, de forma totalmente gratuita. Además, nos muestra en verde las palabras con una densidad adecuada y en rojo las que tienen una densidad peligrosa y corren peligro de causar sanción en los buscadores que controlan los abusos.

Cómo saber cuantas páginas web enlazan a la tuya

Tal como indicamos en el artículo anterior, el comando a realizar en un buscador es:
link:www.nombredeweb.com

Pero una vez más, Marketleap dispone de una herramienta que nos facilita el trabajo y nos hace esta consulta simultáneamente en varios buscadores a la vez, y además, si lo deseamos nos hace una comparativa con webs de nuestro sector (por desgracia sólo tiene catalogadas webs norteamericanas, así que esto último sólo es interesante a nivel de curiosidad).

También en la parte derecha superior encontrarás un enlace a tu histórico (obviamente, si es la primera vez que consultas tu web en Marketleap, no habrá histórico… pero sí lo habrá la próxima).

Cómo saber en qué posición está tu página web para ciertas búsquedas

Ir monitorizando tu posicionamiento en la palabras que tú consideras clave para que la gente encuentre tu negocio, es algo muy importante. Para ayudarnos en este menester existen muchas herramientas. Encontrarás la mayoría de ellas en Softonic, en el apartado de “Monitores Posición en Buscadores”.

Mi herramienta preferida es el Free Monitor for Google 2.0. Es 100% gratuita y francamente, es muy útil: le das una lista de palabras o frases, y te indica en qué posición se encuentra tu página web (o la de tus competidores, según qué estés analizando). Además, el resultado lo puedes exportar e incluirlo en cualquier documento. Lo único a tener en cuenta es que consulta google.com y no google.es, así que si queremos comprobar que si es cierto lo que el Google Monitor nos indica, debemos realizar la consulta en Google.com y contar el número de páginas que tenemos por delante.

Por la red encontraremos programas que nos comparan la posición que ocupamos en varios buscadores para ciertas palabras. Mi preferido es ThumbShots que muestra los resultados de manera gráfica y además de tu web, muestra un centenar más de resultados.

Cómo conocer el PageRank de una página web

La manera más fácil es teniendo la barra de Google instalada, pero existen muchas webs que también nos ofrecen esta información de forma totalmente gratuita y que además, nos permiten chequear el PageRank.

Enlaces interesante:

Enlace a la presentación en Power Point que explica cómo funciona un buscador por dentro y que podrá ayudarte si compruebas que Google tiene menos url’s de tu página web indexadas de las que debería.