Artículos sobre Posicionamiento en Buscadores.

¿A quien se cargará Bing, a Google o a Yahoo?

No sé si la respuesta es obvia, para todo el mundo… en todo caso, a mí me lo parece. La víctima de esta nueva guerra de buscadores va a ser Yahoo, no Google.

Me explico:

Indiscutiblemente, el buscador número uno es Google. Su cuota de mercado varía en función de qué país se analiza, pero oscila entre un 68% en EE.UU., hasta un 96% en países como España donde no tiene competidor. A nivel global, se considera que Google tiene una cuota de mercado de 87,62% (ver Stat Counter)

En la segunda plaza, desde hace años, encontramos a Yahoo, con una cuota que oscila entre un 5% y un 30% según qué país se analice.

El tercer jugador era para Windows Live de Microsoft y el cuarto para Ask Jeeves en occidente, y Baidu si tenemos en cuenta China y otros países de Asia (Baidu es el número uno en China [ver gráfica de principales buscadores en China]).

Pero desde la semana pasada tenemos nuevo jugador: Bing.com, el nuevo buscador de Microsoft. Veamos cómo ha afectado esto a los rankings.

Aunque es pronto para decirlo puesto que mucha gente ha entrado en Bing sólo para ver qué tal es, lo cierto es que Bing se está haciendo un hueco en el mercado y pasada la emoción del día 4 (ver imagen adjunta), parece que es capaz de mantener una cuota estable de visitas.

Source: StatCounter Global Stats – Search Engine Market Share

Si analizamos esta gráfica, podemos ver que el día 4 de junio Bing incluso pasó a ocupar la segunda posición. Lo interesante de esta gráfica es darse cuenta de que Bing ocupó la segunda plaza, pero que lo hizo no quitando quota de mercado a Yahoo si no que se la quitó a Google. (Para realizar este análisis es mejor entrar en el link de Stat Counter que aparece en la parte inferior de la imagen y cambiar las fechas de la gráfica para centrarse en el día 4)

¿Por qué entonces insisto en que la víctima será Yahoo y no Google? Pues porqué ser el segundo buscador no es lo mismo que ser el tercero… y si todo sigue su curso, Yahoo se va a convertir en el tercero… esto va a repercutir fuertemente en el número de anunciantes de este portal y en definitiva, va a tocar de muerte la línea de flotación (ya de por sí muy débil) de Yahoo.

El control sobre los anunciantes de Yahoo va a ser la verdadera guerra de buscadores y la que decidirá quien es el ganador. Aunque para hacerse con los anunciantes, primero hay que conseguir cuota de mercado… y en esto están.

Lo que está pasando (o lo que va a pasar) no es ninguna sorpresa. Microsoft se dedicó todo el 2008 intentando comprar Yahoo (ver en Reuters sobre oferta de 46.000 millones de dólares por la compra de Yahoo). Cómo no lo ha conseguido, ha desarrollado de nuevo (en 2003 hizo lo mismo), su propio motor de búsquedas. Pero esta vez lo ha hecho no imitando a Google, si no creando algo totalmente diferente y dando servicios que van más allá de la búsqueda de contenido y que en ciertos casos como en el de los viajes, va a ser una killer application para algunos portales de intermediación. En este tipo de búsquedas comparadas, es donde más tiene a ganar Bing y donde Google, de momento, no ofrece competencia.

Ahora queda por ver si Bing podrá recuperar la cuota del día 4 y si luego podrá mantenerse en esta segunda posición. También, si será capaz de quitar más cuota de mercado a Google o si se la quitará a Yahoo. Es pronto para sacar conclusiones… y aunque como vemos en la gráfica, el efecto “novedad” generado por Bing ya está pasando, esto es una carrera de fondo. Steve Ballmer indicó durante el lanzamiento de Bing que quería “convertir al motor de búsqueda de Microsoft en el segundo contendiente antes de cinco años…” así que también Microsoft sabe que hacerse un hueco en el mercado de los buscadores no es una tarea fácil y que va a necesitar tiempo para conseguirlo.

Lo que sí está claro de momento, es que Bing ha venido para quedarse, así que tendremos que estar atentos a este nuevo buscador y empezar a analizar su algoritmo de ordenación de resultados para conocer cuanto antes, cómo aparecer bien posicionado.

En GEA nos ponemos manos a la obra y a la que disponga de este tipo de información la publicaremos tanto en este blog como en la web de GEA.

Nos hablamos.

Las búsquedas son cada vez más sofisticadas

Hitwise acaba de publicar un estudio en el que analiza los parámetros de búsqueda de los usuarios norteamericanos, en los buscadores de este país.Búsquedas según Hitwise

En este informe se indica que la mayor parte de los usuarios analizados utilizaron 2 palabras para realizar sus búsquedas, pero que la tendencia es a que pronto será 3 el promedio de palabras buscadas en dichos buscadores.

En la tabla que muestro junto a estas líneas podemos apreciar este cambio de tendencia, así como la tendencia general a realizar cada vez más búsquedas más sofisticadas utilizando gran cantidad de palabras.

Destaca el crecimiento del 18% en el número de usuarios que utilizan ocho o más palabras cuando han de realizar una búsqueda.

Más sobre el informe

El informe de Hitwise también comenta el incremento de la cuota de mercado de Google en EE.UU. que pasa a ser del 72,74% de las búsquedas del mes de abril 2009, frente al 67,93% de las búsquedas que se realizaron en este mismo mes pero en el año 2008.

Buenas noticias

Estos datos son interesantes desde el punto de vista SEO porque nos indican que debemos centrarnos en posicionar conceptos de 3 ó 4 palabras, cosa que facilita mucho el trabajo ya que no se trata de términos generales y por lo tanto no se compite contra tanta gente. También desde el punto de vista de generación de contenidos es mucho mejor trabajar con frases y grupos de términos, que no con palabras sueltas.

Enlace al informe de Hitwise: Informe Hitwise

Posicionamiento en Buscadores en el Corte Inglés de Sabadell

Mañana miércoles a las 7 de la tarde tendrá lugar en la Sala Cultural del Corte Inglés de Sabadell, el Curso de Posicionamiento en Buscadores que forma parte del ciclo de conferencias sobre Marketing Digital que estamos impartiendo en este centro comercial.

En ésta clase explicaremos las claves para aparecer en los primeros puestos en las búsquedas realizadas en Google y en el resto de buscadores.

Explicaremos tanto el cómo debe estar construida nuestra página web para que se indexe de forma óptima, como una vez que tenemos la página indexada, qué debemos hacer para mejorar nuestra posición.

Trataremos en profundidad los conceptos de densidad, de prominencia, de confiabilidad, el algoritmo de PageRank y muchos otros temas relacionados con la mejora del Posicionamiento en Buscadores. También explicaremos qué herramientas están a nuestra disposición en internet tanto para poder realizar el seguimiento de nuestro posicionamiento como para poder mejorarlo.

La asistencia es gratuita pero el aforo es limitado.
Si deseas asistir por favor contacta con el Corte Inglés de Sabadell: tel. 937284800 ext. 3240

Nos vemos allí.

Si no puedes venir… quizás te interese esto:

Presentación PTT con la que se ilustrará la conferencia: Posicionament a Cercadors (en catalán)
Curso gratuito de posicionamiento en Buscadores, vía la web de GEAIPC: Posicionamiento en Buscadores

Google acaba de actualizar el PageRank

Como viene haciendo cada mes de abril desde los últimos años, Google ha actualizado el PageRank que muestra en su barra. Aunque ha sido fiel a su cita, se ha adelantado unos días respecto al año pasado que actualizó el Page Rank hacia finales de abril.

¿Qué es el PageRank y qué importancia tiene en el algoritmo de ordenación de resultados?
El PageRank es el algoritmo que Google utiliza para dar un valor numérico a la importancia que tiene una página web. Este valor lo forma parte del algoritmo que marca el orden en el que se muestran los resultados de una búsqueda en Google.

La finalidad de PageRank es asignar un valor numérico a las páginas web según el número de veces que otras páginas las recomienden y según el PageRank que tengan estas páginas. Es decir, establece la importancia de esa página web.

Pero este algoritmo tiene en cuenta muchos más factores que el simple recuento de enlaces o la asiganción de un valor según sea el PageRank de la página que envía el enlace. Por ejemplo, si un enlace que viene desde una misma IP que la página web a la que se dirige, vale mucho menos que uno que tenga como origen una IP completamente distinta.

¿Cómo funcionan las actualizaciones de PageRank?
Existe una diferencia entre el PageRank real y el PageRank que muestra la barra de Google.
El PageRank que nos muestra la barra de Google sólo se actualiza una vez cada 4 meses, aproximadamente: en enero, en abril y en septiembre.

La barra nos muestra un PageRank en base 10 en una escala logarítmica. Es decir, es fácil subir de 0 a 1 ó de 2 a 3, pero en cambio es muy difícil subir de 5 a 6, y aun más subir de 6 a 7. Pero este no es el PageRank real de nuestra página, si no el valor que Google le asignó la última vez que actualizó el PageRank de la barra.

El PageRank que utiliza Google para sus cálculos es mucho más preciso y utiliza una escala mucho mayor, aunque no sabemos cuánto, y en Google hay un hermetismo completo a este respecto, aunque parece que es en base 100. Sus servidores internos lo actualizan diariamente.

¿Cuándo será la próxima actualización?
Si todo sigue su curso, deberíamos esperarla durante el mes de septiembre. Así que todas las acciones para subir el PageRank que llevemos a cabo a partir de ahora, no se verán reflejadas en la barra de Google hasta ese mes.

En mi barra de Google no veo el PageRank, ¿qué tengo que hacer?
Por defecto, la barra de Google no incluye esta información, pero desde las opciones de la barra podrás incluir PageRank, y de esta manera, mientras navegas por la red podrás conocer los PageRank de las páginas que visitas. Esto te ayudará a saber en qué páginas web deberías intentar incluir tus enlaces para que aumente tu PageRank.

Consejos para mejorar el PageRank de tu página web:

  1. Necesitas aumentar el número de enlaces en webs de terceros que recomiendan tu página web. Para ello puedes publicar artículos en foros, páginas web o diarios de noticias, y hacer que en tus artículos aparezcan enlaces a tus páginas. También puedes solicitar intercambio de enlaces con otras páginas web.
  2. Necesitas conseguir que te enlacen páginas web que tengan el PageRank alto. Lo ideal es un enlace en la página web de la CNN o de alguna página realmente importante. Esto es difícil de conseguir. Pero páginas web que permiten que publiques artículos acerca de temas de actualidad, y que incluyas enlaces en ellos. También puedes conseguir que periódicos online publiquen tus notas de prensa (no olvides incluir enlaces a tu web en todas las notas de prensa que publiques)
  3. Necesitas conseguir enlaces en páginas web donde no haya muchos otros enlaces. Recuerda que el valor del tuyo queda dividido por el número total de enlaces que salen de esa página web.
    Obviamente, todo esto se consigue de forma automática si tienes un contenido excelente en tu página web. De forma espontanea, terceras personas incluirán enlaces a tu página web, recomendarán tu página y si consigues tener algo único, la prensa hablará de ti.

Este es el mejor consejo que te podemos dar: trabaja el contenido de tu web para sea excelente. Incluye informes, best practices, estudios y procura darlos a conocer a terceros.

Presentación de la Guía de Marketing Digital en Manlleu

Cámara de Comercio de BarcelonaHoy se ha presentado en Manlleu, en la sede que la Cámara de Comercio de Barcelona mantiene en esta ciudad, la Guía de Marketing Digital publicada por ésta cámara y por PIMESTIC.

Parte del acto de presentación ha consistido en una ponencia mía titulada “Las 9 Técnicas para Atraer Visitas a una Página web”. En esta charla explico las 9 formas de atraer tráfico a una página web.

La presentación ha sido todo un éxito,  la sala estaba llena, las empresas han hecho preguntas y al salir, bastante gente se ha quedado para hablar conmigo y para interesarse por las ayudas de PIMESTIC para empresas.

Como siempre, quizás me he entretenido demasiado en el posicionamiento en buscadores, pero dado que es la técnica número 1, la más efectiva y la más barata, pienso que vale la pena explicar un poco más de lo que el tiempo me permite… hoy no ha sido una excepción. También al explicar cómo optimizar una campaña SEM pienso que me he alargado demasiado… pero de nuevo, la gente preguntaba y pedía más. ¿Cómo voy a negarme?

Total, que en lugar de una hora, mi presentación ha durado 2 horas y media… pero nadie se ha quejado, ni se ha ido antes de finalizarla, así que creo que la han encontrado útil y de inmediata aplicación en sus negocios.

Por si alguna persona del público visita el blog, aquí van los enlaces relacionados con la ponencia:

La próxima: en Vilafranca del Penedés el día 31 de marzo a las 9h30′, en la sede de la Cámara de Comercio de Barcelona en esta ciudad.

Publicadas las Ayudas de ACC10 para la exportación a través de Internet

ACC1Ó (antes COPCA y CIDEM) acaba de publicar las ayudas y subvenciones para el 2009. El programa que más nos interesa a nivel de empresa es el 2bDigital (léase “to be digital“), que ayuda a las empresas con sede en Catalunya a exportar más utilizando herramientas digitales e internet.

Este programa se realiza en dos fases:

  1. Ayuda para la creación de un Plan de Marketing Online Internacional: que incluye el análisis de la competencia, el análisis del público objetivo en el mercado que se defina, el ánalisis de las diferentes propuestas de valor para cada segmento del público objetivo, y las directrices básicas para conseguir una página web orientada a cliente y que se posicione correctamente. Acc1o valora éste plan en 2.100 euros y paga a las empresas la mitad de este importe.
  2. Ayuda para la creación de un Plan de Acción Online Internacional: que incluye posicionamiento en buscadores, creación de campañas SEM, creación de campañas publicitarias, gestión de la presencia de la empresa cliente en mercados internacionales, etc. Acc10 valora éste plan en 2.100 euros y paga a las empresas la mitad de este importe.

Una vez finalizadas las fases, Acc10 paga también el 30% (hasta un máximo de 3.000 euros) de los gastos en los que haya incurrido la empresa al adaptar su web al Plan de Marketing o en rehacerla de nuevo.

También paga un 50% (hasta un máximo de 1.000 euros) de los gastos en Marketing Digital que tenga la empresa durante el año 2009. Por ejemplo los gastos en campañas SEM o los gastos para estar presente en algún marketplace de pago.

Si deseas más información al respecto, aquí encontrarás el documento oficial con ésta información: 2BDigital del COPCA

Si prefieres que te informemos directamente y que te expliquemos cómo podemos adaptar el programa 2BDigital a las necesidades de tu empresa, no dudes en contactar con GEAIPC. Estamos a tu disposición.

Obama y el robots.txt de la Casa Blanca

Se ha hablando mucho acerca de cómo Barack Obama ha aprovechado internet para dar a conocer su candidatura y para conseguir movilizar votantes. También se ha comentado en muchos blogs el ambicioso plan tecnológico de Obama para EEUU (puede leerse aquí).

Pero una de las cosas que me ha llamado más la atención y que pocas personas han advertido: el cambio que ha sufrido el Robots.txt de la página web de la Casa Blanca, muy en línea con lo que Obama predica.

¿Qué es un Robots.txt?

Es un archivo de texto que contiene instrucciones sobre las páginas visitables y las no visitables por los Robots, de una página web. Es decir, indica qué partes de la página web no deben ser escaneadas por los robots.

Normalmente, se trata de contenido que aparece en la página web, pero sólo se desea que sea accesible a la gente que navega por la web, no se desea que éste contenido aparezca indexado en los buscadores. También se utiliza cuando un gestor de contenidos genera contenido duplicado y por lo tanto, penalizado por los buscadores.

Este archivo se crea siguiendo las instrucciones que podemos encontrar aquí: Robots, y todos los robots que siguen el “Protocolo de Exclusión de Robots“ se comprometen a hacer caso de estas instrucciones.

Si una página web no tiene creado este archivo de texto, los robots entienden que pueden indexarla (aunque al haber buscado el robots.txt de esa página los robots generan un error 404 y por lo tanto, es recomendable que se cree una página en blanco y se suba por FTP con el nombre de Robots.txt para que de esta manera, los 404 que se generen en la página serán reales y puedan ser depurados por el webmaster).

Volvamos al Robots.txt de la Casa Blanca

Hasta hace unos días, cuando explicaba en clase qué es un archivo Robots.txt y qué es el “Protocolo de Exclusión de Robots” ponía varios ejemplos para ilustrar los diferentes tipos de Robots.txt que podemos crear para dar instrucciones a los robots indexadores:

  • Una página robots.txt en blanco
  • Una página robots.txt con instrucciones más o menos “normales”
  • Una página robots.txt totalmente exagerada y fuera de lugar.

Pues bien… Obama me ha “saboteado” los ejemplos y se ha cargado mi ejemplo de mala praxis en cuestión de Robots.txt: El webmaster de la nueva página web de la Casa Blanca ha creado un nuevo Robots.txt perfectamente realizado, claro y conciso.

El webmaster de George Bush Jr., había creado un Robots.txt con miles y miles de páginas con el acceso prohibido a los robots. Ni decir cabe que… no había nada interesante en ese contenido (alguna vez me había dedicado a ir leyendo lo que no querían que fuese indexado… fotos de la first lady, discursos, etc…). Pero mostraba bien que los de la Casa Blanca tenían un concepto un tanto arcaico de lo que es internet y sobre la publicación de contenido.

El nuevo websmaster, en este sentido, muestra tener mucho más claro lo que debe ser la página web de una institución como la Casa Blanca.

Vale… ¿pero cómo era ese Robots.txt?

Por suerte, en las diapositivas de mis clases siempre incluyo pantallazos acerca de lo que explico, no sea que me falle la conexión a internet o que allí donde dé la clase no tengan conexión… (qué triste tener que pensar siempre en ésta posibilidad).

Así que bajo éstas líneas (al final del post) incluyo la imagen que tengo archivada y que ahora ya pasa a ser historia… (Observa la barra de scroll del pantallazo… es la que muestra la magnitud del listado)

La página robots.txt actual la puedes ver clicando aquí: Robots.txt de la Casablanca con Obama .

Si deseas más información sobre cómo crear un Robots.txt o para qué sirve, la encontrarás aquí: Robots.txt y también en el Curso Gratuito de Posicionamiento en Buscadores de nuestra página web: Curso de Posicionamiento en Buscadores

Robots.txt de la Casablanca

¿El Triángulo de Oro de Google sigue siendo válido? La respuesta es sí

Quien más quien menos ha visto alguna vez un mapa de calor que corre por la red, realizado con tecnología de Eyetracking, y que muestra lo que se llama “El Triángulo de Oro de Google”: la zona de oro en la que hay que aparecer si se quiere ser algo en la red… el espacio donde confluyen todas las miradas de los usuarios de Google. Yo misma, lo he usado un gran número de veces en clases y conferencias, para mostrar de forma gráfica la importancia de aparecer en las primeras posiciones de Google, sea en forma de Adword, sea en forma de posicionamiento natural (SEO).Eyetracking - Triangulo de Oro de Google

Pero este mapa de calor tiene sus años, y cada vez que lo utilizo me pregunto si seguirá siendo realmente válido ahora que Google muestra los resultados incluyendo mapas, libros, definiciones, etc. (La imagen que muestro junto a estas líneas corresponde al mapa de calor clásico al que me estoy refiriendo).

De ahí que una de las cosas que quería testear en las pruebas que hemos estado realizando durante los meses de diciembre y enero para poder elaborar un estudio de Search Marketing orientado a Turismo, utilizando tecnología de Eyetracking, era si el Triángulo de Oro seguía siendo válido, o por lo contrario, ahora aparecía otra figura geométrica. Este es el estudio: Eyetracking Search Marketing

Pues bien, tras realizar los tests (54 personas testeando 4 tareas distintas, en total 216 mapas de calor de páginas de resultados de Google), llegamos a la conclusión de que sigue siendo válido, sobre todo cuando se realizan búsquedas muy concretas y que ofrecen resultados que se encuentran en las primeras posiciones, aunque los Adwords laterales ahora son más vistos de lo muestra el triángulo clásico.Eyetracking Hotel Pulitzer Barcelona PCT

Veamos algunos de estos mapas de calor:

Este que muestro a continuación es un mapa de calor para la búsqueda “Hotel Púlitzer Barcelona” (sin comillas) agregando los mapas de 30 usuarios testeados, tomados al azar y sin segmentar. La tarea era encontrar la URL oficial del Hotel Púlitzer (se encontraba tanto en Google Maps como en el primer resultado SEO). El mapa que muestro es un mapa de porcentajes de fijación de mirada (el mismo tipo el “clásico”, sólo que nuestro eyetracker es diferente).

Podemos observar como se forma el triángulo, aunque un poco desdibujado por culpa del mapa.

 

Si este mismo mapa de calor lo mostramos por valores absolutos de fijación de la mirada, entonces Eyetracking Hotel Pulitzer Barcelona Absolutosí vemos el triángulo, y observamos también que algunos usuarios han mirado los Adwords laterales, cosa que casi no se ve en el mapa por porcentajes. (Ver imagen adjunta)

Una observación curiosa acerca de los Adwords laterales: Si para esta misma búsqueda tomamos los mapas de calor de usuarios de menos de 25 años, observaremos algo muy diferente: ni uno solo ha mirado los Adwords laterales y el triángulo aparece limpio aunque algo desfigurado, y centrado en los Adwords superiores y los resultados naturales.

Parece que los menores de 25 tienen muy claro que los Adwords laterales son publicidad y que por lo tanto no merecen su atención… (este tema es importante y vale la pena analizarlo más a fondo ya que hace referencia a las teorías de Comunicación Postmoderna, así que tanto el mapa como el tema lo trataré en otro post).

Volviendo al Triángulo de Oro de Google, aunque en este post sólo hemos analizado uno de los mapas agregados de las 4 tareas que testeamos, mirando el resto de mapas también queda claro que por norma general, la gente sigue mirando los resultados de Google de la misma forma que lo hacía hace unos años, aunque ahora contengan información adicional. O al menos es así, en las búsquedas concretas, como por ejemplo el nombre de un hotel. Veremos en otros posts cómo por búsquedas más generales la cosa se complica un poco más.

El estudio completo puede descargarse aquí: Eyetracking Search Marketing

Este otro estudio también puede interesarte, analiza la mirada de los usuarios respecto a si ven o no ven la publicidad. Eyetracking_Media_Espana

Google Maps vs SEO: sigue ganando SEO

Durante los meses de diciembre y enero hemos estado llevando a cabo toda una batería de tests para elaborar un estudio de Search Marketing orientado a Turismo. Los tests para el estudio se han realizado utilizando tecnología de Eyetracking  y una entrevista personal una vez finalizado el test, para conocer dónde miraban los usuarios testeados y por qué miraban allí y no en otra parte.

En total, se testearon 54 personas de edades comprendidas entre los 16 años y los 68 años.

Los resultados han sido muy interesantes y los iré publicando en este blog a medida que vayamos avanzando en el análisis de los datos.

La primera de las cosas curiosas que hemos observado es que si bien aparecer en Google Maps es importante, sigue siendo más importante salir el primero por posicionamiento natural. Sobre todo en búsquedas concretas. En búsquedas generales del tipo “hotel en barcelona“, no hay ninguna duda sobre la importancia de aparecer en Google Maps. En este post vamos a analizar las búsquedas concretas.

Veamos por qué hemos llegado a esta conclusión:

Una de las tareas que debían llevar a cabo los usuarios era encontrar la página web del Hotel Púlitzer de Barcelona entre todos los resultados que aparecen en Google al buscar “hotel púlitzer Barcelona” (sin las comillas). Apareceían 234.000 resultados.
Eyetracking Hotel Pulitzer Barcelona
Si observamos la imagen del mapa de calor que muestro junto a éstas líneas, podemos ver que la página oficial del hotel aparece tanto en Google Maps como en la primera posición por posicionamiento natural. Pues bien:

  • Un 51,85% de los usuarios clicaron en el primer resultado de posicionamiento natural.
  • Un 40,74% de los usuarios clicaron sobre la web que aparece en Google Maps.
  • Un 7,41% de los usuarios (4 personas) se equivocaron y clicaron sobre Adwords u otros resultados naturales, convencidos de que clicaban la web del hotel.

Cuando preguntamos por qué habían clicado donde habían clicado las respuestas fueron las siguientes:

  • Los que habían clicado en resultados SEO indicaron que se fían más de estos resultados. De hecho, el 22% ni siquiera había mirado la zona de Google Maps y había ido directamente a la zona SEO. Al preguntar por qué no se fiaban, la mayoría indicó que les parecía que era publicidad y en cambio sabían que los resultados que siguen al mapa no son publicidad.
  • Los que clicaron en el mapa, indicaron que clicaron en el mapa porque aparecía en medio de la pantalla y que directamente ya vieron que era la página del hotel.

La mayor parte de las personas indicaron que la URL del hotel fue lo que les indicó que era la web oficial del hotel (obviamente le llamaban la “dirección del hotel”, no la URL, escribo URL para facilitar la redacción de este post). Un 25% indicaron que también el hecho de que el título del resultado indica “Web Oficial” les había reafirmado que estaban en lo cierto y que esa era la web oficial.

  • Las 4 personas que se equivocaron y clicaron sobre otros resultados, estaban convencidas de que habían acertado y habían dado con la web correcta (hasta que vieron la web a la que llegaban tras clicar, claro, momento en el que se daban cuenta de su error). En la mayoría de los casos fue la URL la que les despistó y les hizo creer que estaban en el resultado correcto. Las URLs que clicaron eran del tipo “Hotel-Pulitzer-Barcelona.h.rez.com” de ahí que algunas personas se confundieran. Aunque también los títulos de los anuncios ayudaron a confundirlas: “Hotel Pulitzer Barcelona” como título de un Adword es capaz de confundir a cualquiera si no se tienen en cuenta otros parámetros.

En cuanto a los Adwords en general, casi todo el mundo miró en algún momento los 3 anuncios que aparecen destacados en la zona superior (sólo un 25% no los miró), en cuanto a los Adwords laterales, no tuvieron tanta suerte, y sólo un 22% los miraron.

En otro post analizaremos de nuevo el tema Google Maps vs SEO, pero utilizando un ejemplo en el que los resultados que ofrece la página, en ambos casos son distintos (lo avanzo… gana SEO de nuevo).

Nota posterior: El estudio puedes descargarlo aquí: Eyetracking Search Media .