¿Conoces los cambios en el algoritmo de ordenación de los Adwords de Google?

Hasta ahora, el orden en el que aparecía tu anuncio dependía de la cantidad de dinero que estuvieses dispuesto a pagar por ello. Pero ya no es así, desde principios de diciembre.

 

Google ha introducido un “factor calidad” en el algoritmo que ordena los resultados y que acaba decidiendo qué anuncios salen en primer lugar, en segundo, en tercero, etc. Y lo ha hecho para evitar que gente que no dispone de ciertos productos y contenidos compre las palabras clave y dirija tráfico a su web como si las tuviera. (Por ejemplo: comprando palabras que corresponden a productos de su competencia).

Aunque algunos SEOs ya están empezando a temer que el proceso ordenación de los anuncios publicados través de los Adwords, acabe siendo tan oscuro como el de ordenación de los resultados de búsqueda, nosotros compartimos con Google la opinión de que es algo bueno para todos los anunciantes y también para quienes clican sobre los anuncios.

¿En qué consiste el “factor calidad”?

Como siempre ocurre con las cosas que funcionan bien, hay quien abusa de ellas para sacar más provecho que el resto. Esto ha estado pasando con los Adwords de Google y ahora Google quiere ponerle remedio.

Google quiere asegurarse de que la página a la que se te dirige una vez has clicado sobre uno de los anuncios, versa sobre lo que tú estás buscando.

Así que a partir de ahora, si el contenido de una página no tiene nada que ver con lo que el usuario estaba buscando en Google, el anuncio de esa página saldrá en última posición.

¿Cómo estar en las primeras posiciones de los anuncios, sin tener que pagar más por ello?

Pues está claro… maximiza el número de veces que las palabras sobre las que has contratado los anuncios aparecen en el texto de la página a la que apunta el anuncio.

Y por supuesto, haz que la página a la que te lleva tu anuncio (landing page) sea diferente para cada palabra. Esto puedes hacerlo fácilmente desde el menú de Adwords.

Por ejemplo:

Un usuario busca en Google: “caja fuerte ignífuga”
Tú tienes una empresa que fabrica productos de seguridad y vendes cajas fuertes ignífugas y has contratado Adwords para que cuando alguien busque “alarmas”, “caja fuerte”, “cajas de seguridad”, etc. aparezca tu anuncio en el lateral derecho de Google.

Hasta ahora, el mejor consejo que se podía dar en este caso, era el de tener 2 anuncios, uno para las alarmas y otro para las cajas de seguridad. Con eso haces que la decisión de clicar sobre uno de tus anuncios sea más alta, ya que el anuncio habla de lo que el usuario está buscando.

  • “alarmas” -> anuncio de alarmas
  • “caja fuerte” -> anuncio de cajas de seguridad

Con el cambio en el algoritmo, además de seleccionar un anuncio para cada tipo de búsqueda, tienes que seleccionar la página a la que te dirigirá el anuncio.

No te sirve redirigirlos a tu página principal (como hace el sistema de Adwords por defecto), ya que con toda seguridad, en el interior de tus páginas tendrás una específica para ese producto y en ella, la palabra buscada tendrá más relevancia (estará escrita muchas más veces).

Esto, además, es bueno para ti también ya que si el usuario va directamente a una página que incluye el contenido que buscaba, estará mucho más dispuesto a rellenar los formularios solicitando información sobre el producto o a enviarte un email preguntando por él.

Si no dispones de una página específica para cada tipo de producto que coincida con las palabras clave que has contratado en Google, entonces deberías crearlas, o tu anuncio nunca aparecerá en las primeras posiciones.

Consejos para sacar el máximo partido a tus Adwords de Google:

  1. Compra sólo las palabras que tu público objetivo buscará en Google.
  2. Crea páginas de destino (landing page) que contengan las palabras clave.
  3. Prueba más de un anuncio e invierte en el que tenga la mayor conversión.
  4. Concentra tu presupuesto en las palabras con las que obtengas más conversiones.

Un estudio demuestra que las mujeres y los hombres navegan por Internet siguiendo patrones distintos

El estudio Eyetracking Media España realizado por alt64 en colaboración con la AIMC concluye que el 61% de los internautas mira la publicidad online.
Para conocer el patrón de navegación de los españoles y la efectividad de la publicidad por internet, se ha analizado su mirada


Tecnología Eyetracking

Alt64 Digital, la firma que distribuye en España la tecnología Eye Tracking, en colaboración con la Asociación para la Investigación de Medios de Comunicación (AICM), ha realizado por primera vez en España un estudio que analiza la mirada de los internautas mientras leen medios de comunicación online, el estudio denominado Eyetracking Media España.

 

Es la primera vez que se realiza en este país un estudio de esta envergadura utilizando la tecnología Eye Tracking (seguimiento de la mirada) entre las webs y medios de comunicación online de mayor audiencia. Existe un antecedente en Estados Unidos que ha marcado el antes y después en el diseño de las páginas web y, en concreto, de los medios de comunicación online americanos, el Eyetrack Study, que llegó en 2004 a su tercera edición.

 

Para realizar el Eyetracking Media España, se han analizado los 6 medios de comunicación online de mayor audiencia, cuyo contenido está a la vista y en los que no es necesario registrarse para leerlo: ABC, El Periódico, El Mundo, La Vanguardia, La Verdad y La Razón.

 

El análisis del patrón de navegación de los usuarios testeados muestra que las mujeres y los hombres leen la prensa online de forma diferente. Mientras los hombres leen en zigzag y se saltan muchos párrafos, las mujeres lo hacen de arriba abajo y leen, en la mayoría de los casos, los títulos y las entradillas de las noticias de forma completa. Tanto hombres como mujeres escanean las páginas en busca de palabras o de frases clave y en función de ellas, deciden si leer o no los artículos.

 

Los resultados obtenidos demuestran, entre otras cosas, que un 61% de los usuarios testeados miran la publicidad que contienen las páginas web. Y tras una entrevista posterior a la navegación, el estudio indica que un 52,9% de ellos retiene la marca del anuncio.

 

El estudio también muestra que no por incluir mucha publicidad en una página, los usuarios la ven más. En cambio, con poca publicidad, pero realizada en ciertos formatos publicitarios, como el rascacielos lateral exterior o el banner superior, se consigue captar la mirada del usuario y conseguir que mire el anuncio.

 

Además de estudiar los patrones de navegación, en el estudio se responden preguntas como: ¿Los anuncios se miran realmente? ¿Dónde se ven mejor los anuncios en la web? ¿Qué formatos de anuncio son los más efectivos? ¿Cuáles fueron los anuncios más mirados por los usuarios que participaron en el estudio? ¿Se puede medir la efectividad de la publicidad online? ¿Qué marcas fueron recordadas?

 

La mirada de un ser humano es un buen indicador acerca de qué es lo que le está llamando la atención, y con equipos de Eyetrack es posible automáticamente y con mucha precisión (error inferior a un 0,5%) saber, por ejemplo, cuál es el recorrido de la mirada, cuánto tiempo se detiene el usuario en un punto o área concreta o saber si el usuario está leyendo o escaneando un texto.

 

Los datos son captados por una pequeña cámara que lleva incorporado el monitor desde el que el usuario navega. El recorrido de la mirada queda grabado en vídeo y un software los muestra de forma que se puedan analizar recorridos, tiempos de fijación de la mirada, patrones de lectura, etc.

 

A nivel de análisis de la muestra, es posible obtener información agregada con zonas oscuras (zonas a las que no ha mirado nadie) y zonas calientes (zonas a las que han mirado la mayoría de los usuarios) y confeccionar con ellos mapas térmicos de páginas web o cualquier otro soporte que se esté estudiando.

 

El estudio completo puede descargarse desde la web de la AIMC (http://www.aimc.es/) y desde la web de Alt64 (http://www.alt64.com)

 

Sí. Un buen programa de analítica web te puede hacer ganar dinero…

¿Cómo? Muy fácil: si supieses exactamente de qué páginas web te llegan los usuarios que acaban comprando en tu web y exactamente de dónde vienen los usuarios que compran los productos de una categoría en concreto. ¿No te sería mucho más fácil atraer a más como ellos y aumentar así tu facturación?

Pero lamentablemente, existen en el mercado centenares de programas de estadísticas, y muy pocos te brindan este tipo de información.

La mayor parte de ellos ofrecen datos interesantes desde un punto de vista técnico o desde un punto de vista de estadísticas básicas. Pero no desde el punto de vista del profesional del Marketing.

Lo cierto, es que en la mayoría de las empresas, las estadísticas web están aún en manos del departamento técnico en lugar de estar en manos del departamento de Marketing. Si bien el control de la web, estos últimos años, ya ha ido pasando de técnicos a marketinianos, las estadísticas aún están iniciando sus primeros pasos en el cambio de departamento. De ahí que la gran mayoría de los programas que las analizan han sido creados por personal técnico, y están pensados para ser leídos por personal técnico.

Esto no quiere decir que un profesional del Marketing no los entienda, nada más lejos de la realidad, lo que ocurre, es que los datos que ofrecen estos programas están orientados a colmar las necesidades de conocimiento del personal técnico en lugar de las del personal de marketing.

Piensa en tu programa de estadísticas… ¿te indica claramente cuál es el camino de navegación que sigue la mayoría de tus usuarios?, ¿te indica los referrers de los usuarios que compran algo en tu web? más bien no… solo te indican los referrers de tus visitas, pero no distingue entre clientes y visitas. ¿Te indica en qué campos tus usuarios abandonan los formularios?… hay un sin fin de información que deberías poder manejar, pero que tu programa no te ofrece.

El pasado 29 de septiembre, en Barcelona, se realizó un seminario de Analítica Web dedicado a explicar las necesidades de los profesionales del marketing y a ver cómo HBX, un programa de estadísticas orientado 100% a marketing podía serles de ayuda.

En el marco del seminario, algunos de los asistentes expusieron sus preocupaciones acerca de los programas de analítica. Algunas de estas preocupaciones eran, por ejemplo, cómo poder manejar datos de múltiples páginas web (entre los asistentes había varias personas que pertenecían a grandes corporaciones que disponen de decenas de páginas y que desean agregar los datos de sus webs). Otros asistentes manifestaron su preferencia por los programas que analizan tags (pequeños códigos de programación insertados en una página web) en lugar de los que analizan logs (registros del servidor), aunque temían que la instalación de los tags en sus páginas fuese complicada. Nada más lejos de la realidad, tal como nos mostraron los ponentes del seminario.

Volviendo al título de este artículo: cómo ganar dinero con un programa de estadísticas web. El secreto consiste en conocer tanto como te sea posible a tu cliente para poder crear su retrato robot y así facilitar la tarea de conseguir muchos más como él. Pero para ello necesitas un buen programa de analítica. Uno que trate clientes y no visitas.

Para esto, nada mejor que un programa que pueda conectarse con nuestro CRM. Los programas de análisis de nueva generación ya lo hacen. HBX se conecta de forma automática con programas como SalesForce y en caso de que la empresa disponga de otro CRM, es se puede crear una aplicación puente que comunique ambos programas. Además, con la identificación por cookies, es posible seguir todo el ciclo de vida de un cliente incluso antes de que sea formalmente cliente, desde el mismo momento en que entra en nuestra página web.

Definitivamente, el mundo de las estadísticas web está transformándose en algo potente como herramienta de marketing. No te pierdas la oportunidad de conocerlo más a fondo. Descubre qué sistema tienes instalado en tu web y aprende a utilizarlo!

Descubre las 3 razones por las que Microsoft entra en el mercado de los anuncios en buscadores

Microsoft anunció la semana pasada que había desarrollado su propio sistema de anuncios de texto en los resultados de búsqueda de MSN Search. Según Microsoft éste sistema será mucho mejor que el de sus rivales Google y Yahoo ya que permitirá servir los anuncios en función del sexo, la edad y la localización del usuario.

Existen tres razones claras por las que Microsoft está llevando a cabo este movimiento:

  1. Para Microsoft, Google se está convirtiendo en una verdadera amenaza. Gracias a los ingresos que Google está obteniendo con sus adwords, se están financiando múltiples iniciativas en el campo de la programación con software libre y en aplicaciones que poco tienen que ver con Windows y que compiten directamente con productos de Microsoft, como Gmail vs Hotmail.
  2. Es obvio que el mercado de los anuncios en texto incluidos en los resultados de búsqueda es una gran fuente de ingresos. Google es un vivo ejemplo de ello, acaba de anunciar un beneficio neto de 342,8 millones de dólares durante el segundo trimestre 2005.
  3. En cierta manera, durante algunos años, MSN se ha visto obligado a compartir sus ingresos con Yahoo, uno de sus principales competidores. Hasta este momento, los anuncios que MSN ofrece en su portal están ofrecidos por Overture, empresa que desde marzo 2003 pertenece a Yahoo, por lo que Yahoo obtiene una comisión por cada venta de MSN.

Según Microsoft el servicio que ellos ofrecerán será mucho más atractivo que el de Google y Yahoo para los anunciantes, ya que ofrecerá segmentación por sexo, edad, localización del usuario, horario visualización de los anuncios y otros parámetros que Microsoft conoce acerca de sus usuarios.

Microsoft se ha incorporado tarde al mundo de los buscadores, pero parece que lo está haciendo de forma completa, aunque paso a paso y sin arriesgar.

MSN Bot

El primer movimiento fue en verano 2003 momento en que lanzó su recién programada araña MSN Bot a escanear toda la red, cuando en sus portales aún utilizaba el buscador Inktomi (propiedad de Yahoo desde ese mismo año y por el que Yahoo pagó 235 millones de dólares). Durante 2003 Yahoo ingresó gracias a MSN 5,3 millones de dólares por el uso de su buscador.

A mediados del 2004 Microsoft lanzó la versión beta de su propio motor de búsqueda y a finales del 2004 dejó de utilizar definitivamente Inktomi, para pasar a ofrecer sus propios resultados de búsqueda. Desde entonces lucha por posicionarse entre los mejores portales de búsqueda. Aunque el mejor activo de MSN Search no es su algoritmo de ordenación de resultados (como lo es en el caso de Google) sino el hecho de que muchos de los usuarios de Windows no saben cómo cambiar la página de inicio de sus navegadores de Internet, ni tampoco cómo cambiar el motor de búsqueda que el MS Explorer lleva instalado por defecto. Así que no es de extrañar que MSN sea la web número dos del mundo en tráfico (la uno es Yahoo, la dos MSN y la tres Google).

Tras conseguir su propio motor de búsqueda, el siguiente paso lógico de Microsoft es el de explotar él mismo el potencial económico que ofrecen los buscadores y que Microsoft no ha sabido ver hasta que Google y Yahoo han ido presentando año tras año resultados económicos positivos.

Parece ser que los primeros sites de Microsoft en testear este nuevo sistema de anuncios serán MSN Singapur y MSN Francia. Seguidamente, se extenderá al resto de países.

Estaremos pendientes de cuando esto se produzca, para poder realizar análisis sobre la segmentación y la aceptación y posterior expansión de la red de anunciantes de MSN.

Enlaces interesantes:

Alexa Ranks (http://www.alexa.com/site/ds/top_sites?ts_mode=global&lang=none )
Ranking mundial de páginas web según su número de visitas y páginas vistas.

Descubre cómo será el substituto del PageRank de Google: el TRUST RANK

Desde hace algunos meses se viene especulando sobre la posibilidad de que Google cambie el algoritmo de PageRank por un nuevo algoritmo que filtraría todo el spam a buscadores o al menos intentaría neutralizarlo. Descubre en éste artículo todo lo que se sabe hasta el momento, acerca del nuevo algoritmo cuyo nombre es Trust Rank.

El spam a buscadores se ha convertido en un verdadero problema para Google y el resto de motores de búsqueda. Webmasters sin escrúpulos han creado miles de páginas con el único propósito de enlazar con sus páginas principales y con esto hacer subir su PageRank (en el caso de Google) o cualquier otro algoritmo utilizado por buscadores que tienen en cuenta el número de enlaces que recomiendan una página, a la hora de determinar la importancia de ésta y situarla en mejor posición en los resultados de búsqueda.

Ésta es la técnica utilizada para conseguir que cuando buscas “Ladrones” en Google, te aparezca en primera posición la web de la SGAE.

El nuevo algoritmo de Google evitaría este tipo de prácticas.

La finalidad del PageRank es asignar un valor numérico a las páginas web según el número de veces que otras páginas las recomienden y según el PageRank que éstas tengan a su vez. Es decir, establece la importancia de esa página web. Su lógica es la siguiente: si una página web enlaza con otra página, es que la está recomendando. Y si la recomienda, es que debe ser importante en el ámbito del tema que trata la primera página web. Una recomendación que proviene de una página que a su vez está muy recomendada vale más que una recomendación que provenga de una página que casi nadie recomienda.

Google desea que en las primeras posiciones de los resultados de búsqueda encontremos páginas de cierta relevancia y que estén siendo recomendadas por otras páginas que a su vez también tengan relevancia. Para determinar el PageRank, Google analiza el número de enlaces que provienen de otras páginas web y su PageRank. El Trust Rank, parte de la misma base. Pero en lugar de valorar la importancia de una recomendación en función del PageRank de la página que recomienda, lo hace a partir de una serie de páginas web que han sido consideradas importantes por humanos en lugar de por algoritmos.

A las páginas web que los humanos han determinado como importantes se las considera “web semilla” y a sus enlaces se les asigna un valor. Y será ese valor el que se irá transmitiendo por toda la red.

Para ilustrarlo con un ejemplo: Supongamos que disponemos de una web semilla “A”. “A” trasmitirá un valor de 100 Trust Rank a todas las webs a las que enlace. Éstas páginas, a su vez, transmitirán un Trust Rank de 99 a todas las webs a las que enlacen. Y éstas últimas, transmitirán un Trust Rank de 98 a las que ellas enlacen.

Para mitigar la degradación del Trust Rank a medida que se distancia de las webs semilla, en el algoritmo se ha incluido un corrector que tiene en cuenta el número de grados que hay entre la web semilla y la web que recibe el Trust Rank, sin anular completamente la distancia que las separa de la semilla.

Según un documento de la Universidad de Standford que versa sobre el Trust Rank, de la misma manera que las webs semilla van a transmitir Trust Rank, las webs consideradas spam por los humanos que evalúan las webs, van a transmitir Trust Rank negativo. Según este documento ciertas webs van a restar Trust Rank y cuando una página web sitúe su nivel de Trust Rank por debajo de una determinada cifra, va a convertirse automáticamente en una web que transmite Trust Rank negativo en lugar de positivo. (Se incluye un enlace a éste documento al final del artículo).

La idea del Trust Rank parece buena, pero hay ciertas cuestiones que deben tenerse en cuenta:

¿Quienes serán las webs semilla?

A este respecto hay discrepancias… El documento de Stanford habla de un algoritmo que determinará las webs que pueden ser semilla. En ciertos foros especializados en posicionamiento en buscadores se afirma que serán las webs gubernamentales y de universidades las que empezarán a transmitir el Trust Rank semilla, y en otros foros se afirma que Google hace meses que está contratando gente de todos los países para que evalúen de forma manual las webs más representativas de su país. Esta última posibilidad parece la más plausible, ya que hay indicios de que efectivamente, Google ha contratado evaluadores de webs.

¿Se realizará spam a la inversa?

Así a bote pronto y pensando en este futuro no muy lejano en que el Trust Rank funcionará, se me ocurre que quizás los mismos que juegan a que buscando la palabra “ladrones” salga la SGAE, quizás puedan jugar a sabotear páginas web, enlazándolas despiadadamente desde sus páginas de spam y por lo tanto restándoles Trust Rank, para que no aparezcan en los primeros puestos de los buscadores.

¿Para cuándo tendremos el Trust Rank incorporado en el algoritmo de Google?

Ni idea… aquí nadie se pone de acuerdo. El día menos pensado Google lanza un comunicado y nos informa de que ya lo ha implementado. Lo que sí está claro es que lo comunicará a la prensa y a los internautas. Sin duda supondrá una gran mejora cualitativa en la obtención de los resultados de búsqueda así que Google hará que la gente se entere de ello, dudo que el departamento de comunicación de Google dejase pasar una oportunidad como ésta.

Información complementaria para quien desee ampliar conocimientos:

Enlace al documento de la Universidad de Stanford que versa sobre el Trust Rank: http://dbpubs.stanford.edu:8090/pub/2004-17

Curso de Posicionamiento en Buscadores (que sin duda habrá que modificar el día que se implemente el Trust Rank, pero que ya incluye el nuevo sistema de indexación con el Google Site Map Generator): Curso Online de Posicionamiento en Buscadores. El curso es gratuito.

Descubre la indexación del futuro: Google SiteMap

Google nos propone lo que va a ser la nueva forma de indexar páginas web.
Los motores de búsqueda como Google y Yahoo, utilizan arañas para recoger la información de las páginas web que hay publicadas en Internet. Una vez tienen la información, la procesan para poder ordenar rápidamente los resultados de búsqueda, en función de un algoritmo determinado, cuando un usuario acude a sus respectivas páginas web e inquiere algún término o alguna frase.

Las arañas de los buscadores visitan periódicamente las páginas web que están publicadas en Internet y actualizan automáticamente la información acerca de su contenido.

Hasta ahora, las arañas entraban en el directorio raíz de un dominio, buscaban el fichero robots.txt para asegurarse de que el site deseaba ser indexado y luego procedían a visitar todos los enlaces que encontraban en la página web, registrando así todo el contenido de la página.

Google SiteMaps va a revolucionar esta forma de indexar las páginas web.

No es sólo que Google ahora lea con más detenimiento los mapas del site que la gente incluye en sus páginas web… no es nada de esto… es una nueva forma radical de indexar el contenido de las páginas. Google nos propone la creación de un sitemap en XML siguiendo unas especificaciones determinadas que darán toda la información a sus arañas y que les permitirá el acceso a urls que hasta ahora podían haber estado escondidas por diversos motivos ajenos a la voluntad de los webmasters.

Google desea poder acceder a todo el contenido de las páginas web de la forma más fácil y eficiente. Tal como ahora está planteada la indexación de páginas, aún siendo mucho más eficiente que los índices humanos que teníamos antaño (quién no recuerda haber ido a un buscador, haber insertado a mano la definición de nuestro site, las palabras clave por las que deseábamos ser encontrados y la URL del site… pero esto es ya prehistoria internáutica), lo que Google nos plantea ahora es muchísimo mejor.

Todo consiste en poner a la disposición de las arañas un sitemap especial.

Para crear este sitemap, basta con disponer una aplicación que se instala en nuestro servidor (hay versiones para todos los sistemas operativos) y que crea un mapa del site en un formato determinado. La aplicación que nos propone Google puede generar el mapa a partir de las URL de la página web, a partir de los directorios de la página web, o a partir de los logs del servidor (ideal para páginas dinámicas).
Una vez tenemos el sitemap hecho según las especificaciones de Google, podemos darlo de alta en Google SiteMaps. Automáticamente y en menos de 4 horas, Google lo habrá indexado.

Google permite que los webmasters creen un cron que genere un nuevo mapa hasta cada hora (para sites con mucha renovación de contenido) y que haga el submit del mapa automáticamente en Google Sitemaps. De esta manera, las arañas conocerán de inmediato las nuevas páginas creadas y las podrán incorporar al índice.

Ventajas de esta aplicación:

No importa lo mal que tengas la página web a nivel de caminos para las arañas… con un site map creado por el Sitemap Generator, las arañas de Google siempre encontrarán las url de todas tus páginas.

Otra gran ventaja es la rápida indexación del contenido de todo el site. En menos de 4 horas, las arañas han visitado hasta 50.000 enlaces de nuestra página web. Para webs con más URLs, Google recomienda realizar diversos sitemap y disponer de un índice de sitemaps.

Desventajas de esta aplicación:

Requiere algo de conocimientos en programación, por lo que, o bien los ISP ofrecen este servicio como valor añadido para sus clientes o bien muchas páginas web no dispondrán de ese servicio y deberán seguir siendo indexadas por arañas normales y corrientes.

Los sitemap que ya están disponibles en la mayor parte de páginas web no son compatibles con el formato de Google. Google desea un documento en XML con unas especificaciones determinadas.

Con este proyecto, Google busca sin duda, la forma de mejorar la indexación de las páginas web y poder contar en sus índices con páginas que hasta ahora se perdían en un mar de enlaces dentro de nuestros sites.

Google ha creado el Sitemap Generator y el servicio de indexación Express y lo ofrece de forma completamente gratuita… será interesante ver la reacción de Yahoo ante esto, ya que Yahoo ofrece el servicio de indexación rápida previo pago de 49$, 20$ Ó 10$ según el número de url que deseemos indexar de forma acelerada.

De momento no disponemos de resultados de primera mano respecto a la efectividad de la indexación a través del SiteMap de Google. En cuanto tengamos instalado el nuevo sitemap en varias páginas web y estemos en disposición de hacer comparativas de número de incremento en páginas indexadas y de frecuencia de visititas de arañas, escribiremos un nuevo artículo informando de los resultados. Nos vemos entonces.

Nota posterior: Han pasado algunos meses desde que escribimos este artículo. Los resultados han sido muy buenos. Toda una web queda indexada de nuevo en menos de 24 horas. Es ideal para cuando una nueva web sale a la red. La puedes tener indexada en un momento, sin tener que esperar meses y meses a que las arañas de Google lean todo su contenido.

Información complementaria:

URL con información acerca del sitemap de Google:
https://www.google.com/webmasters/sitemaps/docs/en/about.html

URL con especificaciones acerca del sitemap de Google:
https://www.google.com/webmasters/sitemaps/docs/en/protocol.html

Conoce cómo Internet ha afectado a las 5 fuerzas de Porter

Internet ha cambiado algunas de las bases de las que partía Michael Porter en 1980 cuando publicó las 5 Fuerzas que intervienen el éxito o el fracaso de un sector o de una empresa.
Michael Porter
A lo largo de estos últimos años, Porter ha ido modificando y matizando las 5 fuerzas. En este artículo veremos cómo han ido evolucionando para adaptarse a los nuevos tiempos.

Michael Porter estará en España durante el 12 y el 13 de mayo impartiendo una conferencia en el marco de Expomanagement Madrid 2005. Será un momento inmejorable para conocer de primera mano su opinión sobre los cambios que internet está produciendo en nuestra economía y en las fuerzas que la mueven.

¿Qué son las 5 fuerzas de Porter?

En 1980 Michael Porter desarrolló este método de análisis con el fin de descubrir qué factores determinan la rentabilidad de un sector industrial y de sus empresas. Para Porter, existen 5 diferentes tipos de fuerzas que marcan el éxito o el fracaso un sector o de una empresa:

  1. La rivalidad entre competidores
  2. La amenaza de nuevos participantes en el mercado
  3. La amenaza de productos que substituyan a los nuestros
  4. El poder de negociación de los compradores
  5. El poder de negociación de los proveedores

¿Cuándo se utiliza el análisis de las 5 fuerzas de Porter?

  1. Cuando deseas desarrollar una ventaja competitiva respecto a tus rivales.
  2. Cuando deseas entender mejor la dinámica que influye en tu industria y/o cuál es tu posición en ella.
  3. Cuando analizas tu posición estratégica y buscas iniciativas que sean disruptivas y te hagan mejorarla.

Pero Internet ha cambiado algunas de las bases de las que partía Porter en 1980 para cada uno de los 5 factores. Porter mismo, a lo largo de estos años ha ido modificándolas y adaptándolas al mundo actual.

En este artículo analizaremos las 5 fuerzas y veremos cómo Internet ha cambiado las reglas del juego y qué debemos considerar si deseamos seguir utilizando éste tipo de análisis.

1. La rivalidad entre competidores:

Porter centra sus recomendaciones en desarrollar diferencias entre nuestros productos y los de la competencia, para evitar caer en competir por precio, estrategia que a la larga acabaría afectando la rentabilidad de ambas empresas.

  • Pero Internet ha permitido que realmente se puedan reducir los costes en empresas cuyos costes están relacionados con la comunicación, con la recepción de información o con la concertación de transacciones. Así que una gran parte de las empresas que han sabido aprovechar las ventajas que les brinda Internet y la tecnología asociada a la red, acaban pudiendo ofrecer precios más bajos y por lo tanto, compitiendo por precio en su mercado. Ante un mismo producto, con dos precios diferentes, la fidelización del cliente sólo influye en la pequeña cantidad de diferencia de precio que el cliente tolerará antes de abandonarnos e ir a la competencia. Internet permite que la rivalidad sea por precio, sin que esto lleve a una guerra donde no haya ganador.
  • Internet también ha provocado que aparezcan en el mercado gran cantidad de productos que antes solamente estaban destinados a un mercado local, con lo que aunque nuestro producto fuese único en nuestro mercado, ahora aparecen productos idénticos al nuestro… así que de nuevo acabamos compitiendo por precio.
  • La relación entre competidores ha cambiado radicalmente con la globalización de los mercados. Los clusters locales especializados en la producción de determinado producto o servicio, hacen que la relación entre empresas competidoras sea colaborativa, con objetivos con miras a desarrollar juntas tecnologías, investigación que hagan subir la productividad y la innovación de las empresas que participan en el cluster. Silicon Valley y Hollywood son los clusters más famosos, pero existen cientos de miles de clusters locales que han cambiado radicalmente la relación entre competidores.

Existe información sobre el efecto de los clusters locales en la relación entre competidores en diversos artículos publicados por el mismo Michael Porter. Al final del artículo citamos uno de ellos.

2. La amenaza de nuevos participantes:

La amenaza de que nuevos participantes entren en nuestro Mercado es mayor, cuando las barreras de entrada son bajas, cuando las empresas que participan en un mercado no desean luchar contra los nuevos jugadores y cuando un nuevo jugador tiene grandes expectativas de ganancias si entra en ese mercado. Así que Porter aboga por incrementar las barreras de entrada en un mercado. Sus recomendaciones son las siguientes:

  1. Aprovechar las economías de escala para bajar costes
  2. Crear productos diferenciados y patentarlos.
  3. Desarrollar la imagen de marca de la empresa, para que a los clientes les sea más difícil cambiar de marca.
  4. Cerrar el acceso a los canales de distribución.
  5. Disponer de restricciones para nuevos jugadores, dictadas por las instituciones gubernamentales.

Pero…

  • Este modelo es válido para mercados estáticos. Internet ha propiciado multitud de mercados dinámicos que no permiten aplicar las recomendaciones de Porter. La consolidación de las empresas puntocom supervivientes al crac del 2000/2001 han cambiado los modelos de negocio y las cadenas de valor. Las puntocom han destruido eslabones de la cadena y han creado nuevos escenarios competitivos en los que han sido aplicaciones asesinas de muchos servicios ofrecidos hasta ese momento sólo por el mundo offline (ejemplo: las bolsas de trabajo online, las páginas web de clasificados de compraventa, las subastas online, etc.).
  • Las externalidades de red, por otro lado, llevan a la creación de monopolios naturales ya que generan procesos de retroalimentación positiva que hacen que con cada nuevo usuario de un servicio éste tenga más valor para el siguiente usuario.

3. Las amenaza de la aparición de productos sustitutivos:

Porter considera un producto es substitutivo de otro, sólo si reemplaza un producto de un sector industrial diferente al suyo. Por ejemplo, el precio de las latas de aluminio para bebidas, está en función de las fluctuaciones del precio de las botellas de cristal y de las botellas de plástico. Son envases substitutivos, pero no son rivales que provienen de la industria del envasado en aluminio.

  • La tecnología cada vez más permite la generación de nuevos negocios que hasta ahora eran impensables. Los cambios tecnológicos radicales que estamos sufriendo no permiten realizar ningún tipo de predicción ni análisis previo sobre este punto. Por ejemplo, pensemos en el mercado del ancho de banda: tenemos las conexiones vía cable telefónico, vía satelital, vía red eléctrica, etc… todas aparecidas y desplegadas en un espacio de tiempo relativamente corto. Se hace difícil poder prever y contrarrestar los efectos de este tipo de productos. El usuario cambiará tan pronto como perciba que el coste del nuevo producto es más bajo o cuando obtenga nuevas funcionalidades.
  • Internet además, habilita otras formas de satisfacer necesidades y funciones, creando así nuevos e inimaginables sustitutivos.

4. El poder de negociación de los compradores:

Para Porter ésta amenaza debe neutralizarse con una estrategia adecuada que persiga este fin.

  • Lo cierto es que gracias a Internet, los clientes cada vez tienen más poder. Aunque visto desde el punto de vista de la empresa tradicional esto no es precisamente positivo:
  1. Internet incrementa la información sobre los productos y la realidad del mercado.
  2. Incrementa el poder de negociación porque proporciona vías más directas al cliente y elimina eslabones en la distribución de los productos.
  3. Proporciona un marco inmejorable para unir consumidores y realizar acciones de presión contra determinadas empresas cuando los clientes están insatisfechos.
  4. Para entender mejor este punto recomiendo la lectura del resumen de la conferencia de Philip Kotler en el Forum Mundial del Marketing y Ventas (Barcelona 2004): Los 10 principios del “Nuevo Marketing

5. El poder de negociación de los proveedores:

Porter centra el análisis de este punto remarcando que el poder de los proveedores depende de la importancia de los mismos (pensemos en proveedores que tienen cautivo al mercado ej.: Telefónica, Microsoft, etc.).

  • La tendencia actual es a tratar a los proveedores como socios de la empresa, y compartir con ellos el objetivo final de satisfacer las necesidades de nuestros clientes. La relación cliente-proveedor está cambiando.

Aunque todo lo matizado en los comentarios a las 5 fuerzas apunta a que Internet ha obligado a las empresas a competir por precio, Internet también ha propiciado que algunas de ellas hayan conseguido grandes éxitos en sus estrategias de diferenciación. Estas empresas son las empresas que son fuertes en:

  • Investigación científica.
  • Equipos de desarrollo de producto con talento y creatividad.
  • Equipos de ventas con grandes habilidades de comunicación y de percepción de las necesidades de un mercado cambiante.
  • Imagen de marca que transmite innovación y calidad.

Pero los riesgos asociados a la diferenciación también han sido magnificados por Internet:

  • La imitación de nuestros productos por parte de terceros que no han invertido en I+D.
  • El gusto cambiante e impredecible de los clientes.
  • Así que como colofón al artículo diría que Internet ha hecho que el análisis de las 5 fuerzas de Porter, aún siendo válido en nuestros días, es mucho más complejo de lo que era y con muchas más variables a tener en cuenta.

Información relacionada

Artículo de Michael Porter acerca de los Clusters Locales.
Harvard Business Review: Local Clusters

Artículo resumen de la conferencia de Philip Kotler acerca del Nuevo Marketing y del aumento de poder de los consumidores. Philip Kotler: los 10 principios del “Nuevo Marketing”

Información acerca de Expomanagement, Madrid 2005, donde Michael Porter dará una conferencia acerca la estrategia orientada a los resultados:

  • La estrategia orientada a los resultados
  • La lógica económica de la mayor rentabilidad
  • Cómo reconocer en qué tipo de negocios compite su empresa
  • La importancia de abandonar la competencia destructiva y adoptar la competencia estratégica
  • Cuáles son las cinco claves para lograr una estrategia efectiva
  • Por qué la mayoría de las empresas no tienen estrategia
  • Cómo descubrir la estrategia correcta
  • Cómo comunicar e implantar con éxito una estrategia: pasos esenciales

http://www.expomanagement.es/congreso/congreso.html

La Huygens cartografía la superficie de Titán

Impresionante vídeo en el que podemos ver cómo la sonda Huygens, tras abandonar la nave Cassini, va descendiendo hacia la superficie de Titán y mientras tanto va cartografiándola.

La música y los efectos especiales no creo que sean de la nave… pero la forma de cartografiar el planeta y el ir viendo cómo gana resolución a medida que se va acercando, es impresionante.

¿Por qué el contenido gratuito hace subir la facturación? (oGame)

Todos lo sabemos, dar valor a cambio de nada es una de las mejores armas para triunfar en Internet. Si puedes ofrecer un buen porcentaje de tu servicio gratis sin que se resientan tus resultados esto acaba repercutiendo positivamente sobre tu negocio.

Algo que los que llevamos años creando negocios en Internet sabemos a ciencia cierta, no es siempre fácil de explicar a terceros. En charlas y clases veo caras de escepticismo cuando tratamos este tema. La gente se pregunta ¿Cómo puedo ganar dinero ofreciendo cosas gratis?, o piensan que si das parte de tu contenido o lo que sea, gratis, mal acostumbras a los usuarios o piensan también que estás devaluando tu imagen… nada más lejos de la realidad. Pero ¿cómo se lo explicas para que lo entiendan?

La explicación es sencilla: el marketing viral que genera algo gratuito es mucho mayor que el que se puede generar con un producto de pago. Así que que si eres capaz de transformar los usuarios que llegan a tu site en clientes, tienes la partida ganada.

Desde hace unos días, tengo nuevos argumentos para convencer a mis alumnos…

oGame

Si hay algo que me apasiona, son los videojuegos… y de entre todos los juegos, los juegos de estrategia. Desde principios de enero 2005 estoy jugando a oGame (http://es.ogame.org) un juego de estrategia enmarcado dentro del género de juegos por turno multijugador masivos (massive multiplayer turn based game). Es de los que se juega por web, sin requerimiento de instalación de software. Típico juego de colonizar planetas, (nota para los mayores de 30: es como el VGA Planets pero sin enviar los turnos por email). Es gratuito. Es adictivo.

En estos momentos somos más de 7.000 jugadores jugando en una misma partida.

Llevo analizando el crecimiento de oGame desde que me incorporé a él. ¿Alguien puede adivinar cuanto crece diariamente el número de jugadores?

El número de nuevos jugadores crece diariamente un 6%. ¡Diariamente!!

¿Te imaginas un negocio que crezca a un 6% geométrico diario?

Bueno… ciertamente cuesta de imaginar. En este caso sería hacer trampa considerar que oGame es un negocio. Al menos por lo que a la versión española se refiere. Las versiones alemana e inglesa, ya son agua de otro costal.

Los administradores del juego (alemanes) de momento han descartado el mercado español. El modelo de negocio para las otras versiones es el siguiente:

Modelo de negocio: venta de publicidad en la comunidad alemana y en inglés + versión del juego de pago sin publicidad y con más funcionalidades que facilitan la organización de tus estrategias.

Publicidad en la versión española existe, pero es mínima, está mal segmentada, es por pop-up’s (con lo cual te las puedes saltar todas si quieres)… y lo peor de todo… es toda en alemán. De ahí mi afirmación de que los alemanes han decidido no explotar el mercado español, de momento.

Pero volvamos a lo que nos interesa de este artículo. ¿Cómo demostrar a los incrédulos, que ofreciendo algo gratuito, acabas haciendo subir la facturación?

Analicemos el crecimiento del juego:

El secreto está en la estructura de red que está detrás del juego. No es propiamente una red de Metcalfe (para conocer qué es una red de Metcalfe leer: Análisis del “Por qué eBay (y posiblemente Google) abren su código fuente a los desarrolladores”. Si analizamos su crecimiento veremos que no sigue una curva potencial típica de las redes de Metcalfe (crecimiento=número de usuarios ^2). Tampoco sigue la curva de crecimiento de una red grupal (crecimiento=número de canales ^usuarios), sino que es una especie de mezcla de ambos, que acaba mostrando una gráfica parecida a la curva de implementación de una nueva tecnología, la hype curve de Gartner (ver imagen adjunta). Es decir, primero sufre un crecimiento muy fuerte (en enero llegamos a un crecimiento de un 15% diario), luego baja de golpe, y acaba por estabilizarse un poco más arriba de los mínimos en los que ha bajado (al 6% diario que estamos ahora).

El marketing viral de oGame funciona también como el de una red de contactos… a pequeñas explosiones según la recomendación va llegando a pequeños grupos de amigos o comunidades. De ahí que en cierta forma acabe mostrando una curva que combina los crecimientos grupales con los crecimientos de redes de Metcalfe.

Sea como sea… acabamos con un crecimiento estable del 6% diario. Esto son muchas nuevas visitas a una página web, diariamente. Muchas más de las que podemos atraer con cualquier campaña de marketing, de indexación en buscadores, de publicidad en Adwords,… o cualquier cosa que podamos idear para incrementar las visitas a nuestra página web.

Una vez más, repito, el secreto está en saber convertir las vistas en clientes. Y ahí si que el marketing viral o el contenido gratuito, ya no tienen nada que ver. Ellos ya han cumplido su cometido: traer usuarios a la página. Aquí sólo cuenta nuestra habilidad como gestores de negocio.

¿Cómo convertimos usuarios en clientes?

Esto ya será motivo de otro artículo. Pero para no dejar insatisfechos a los lectores, comentar que hay varios modelos:

  • Juegos online: ofrecer una versión del juego de pago, con más funcionalidades y sin micromolestias como puede ser la publicidad. Este es el modelo elegido por los gestores alemanes de oGame para sus otras comunidades.
  • Sites de venta de contenidos: ofrecer contenidos ampliados y de más calidad, pero de los mismos autores, por un precio razonable.
  • Mercados online y clasificados: ofrecer un paquete de servicios de valor añadido que complemente los servicios que reciben gratuitamente todos los usuarios, pero que sabemos por entrevistas realizadas con algunos de los usuarios, que algunos de ellos estarían dispuestos a pagar para obtener. En estos paquetes se puede ofrecer publicidad de sus productos, más visibilidad, funcionalidades extra, etc.

Existen más modelos, pero como he comentado antes, el tema merece un artículo aparte. Lo importante es recordar que no hay mejor manera de atraer a usuarios a tu página web que ofreciendo contenido gratuito que genere marketing viral a velocidades hyperlumínicas ;-)

Enlaces relacionados:

oGame: http://es.ogame.org

Artículo acerca de las redes de Metcalfe: Redes de Metcalfe

Presentación en Power Point acerca de las Redes de Metcalfe: Redes de Metcalfe

Vídeo de la sonda Huygens aterrizando en Titán

Simulación del aterrizaje de la sonda Huygens en el Planeta Titán tras un viaje por el Sistema Solar que ha durado siete años a bordo de la nave Cassini.

La sonda Huygens de la ESA ha atravesado con éxito la atmósfera de Titán, el mayor satélite de Saturno, y aterrizado ‘sana y salva’ en su superficie. Esta es la simulación del aterrizaje que ha preparado la ESA para ilustrar el evento.