Entradas

Descubre las 3 razones por las que Microsoft entra en el mercado de los anuncios en buscadores

Microsoft anunció la semana pasada que había desarrollado su propio sistema de anuncios de texto en los resultados de búsqueda de MSN Search. Según Microsoft éste sistema será mucho mejor que el de sus rivales Google y Yahoo ya que permitirá servir los anuncios en función del sexo, la edad y la localización del usuario.

Existen tres razones claras por las que Microsoft está llevando a cabo este movimiento:

  1. Para Microsoft, Google se está convirtiendo en una verdadera amenaza. Gracias a los ingresos que Google está obteniendo con sus adwords, se están financiando múltiples iniciativas en el campo de la programación con software libre y en aplicaciones que poco tienen que ver con Windows y que compiten directamente con productos de Microsoft, como Gmail vs Hotmail.
  2. Es obvio que el mercado de los anuncios en texto incluidos en los resultados de búsqueda es una gran fuente de ingresos. Google es un vivo ejemplo de ello, acaba de anunciar un beneficio neto de 342,8 millones de dólares durante el segundo trimestre 2005.
  3. En cierta manera, durante algunos años, MSN se ha visto obligado a compartir sus ingresos con Yahoo, uno de sus principales competidores. Hasta este momento, los anuncios que MSN ofrece en su portal están ofrecidos por Overture, empresa que desde marzo 2003 pertenece a Yahoo, por lo que Yahoo obtiene una comisión por cada venta de MSN.

Según Microsoft el servicio que ellos ofrecerán será mucho más atractivo que el de Google y Yahoo para los anunciantes, ya que ofrecerá segmentación por sexo, edad, localización del usuario, horario visualización de los anuncios y otros parámetros que Microsoft conoce acerca de sus usuarios.

Microsoft se ha incorporado tarde al mundo de los buscadores, pero parece que lo está haciendo de forma completa, aunque paso a paso y sin arriesgar.

MSN Bot

El primer movimiento fue en verano 2003 momento en que lanzó su recién programada araña MSN Bot a escanear toda la red, cuando en sus portales aún utilizaba el buscador Inktomi (propiedad de Yahoo desde ese mismo año y por el que Yahoo pagó 235 millones de dólares). Durante 2003 Yahoo ingresó gracias a MSN 5,3 millones de dólares por el uso de su buscador.

A mediados del 2004 Microsoft lanzó la versión beta de su propio motor de búsqueda y a finales del 2004 dejó de utilizar definitivamente Inktomi, para pasar a ofrecer sus propios resultados de búsqueda. Desde entonces lucha por posicionarse entre los mejores portales de búsqueda. Aunque el mejor activo de MSN Search no es su algoritmo de ordenación de resultados (como lo es en el caso de Google) sino el hecho de que muchos de los usuarios de Windows no saben cómo cambiar la página de inicio de sus navegadores de Internet, ni tampoco cómo cambiar el motor de búsqueda que el MS Explorer lleva instalado por defecto. Así que no es de extrañar que MSN sea la web número dos del mundo en tráfico (la uno es Yahoo, la dos MSN y la tres Google).

Tras conseguir su propio motor de búsqueda, el siguiente paso lógico de Microsoft es el de explotar él mismo el potencial económico que ofrecen los buscadores y que Microsoft no ha sabido ver hasta que Google y Yahoo han ido presentando año tras año resultados económicos positivos.

Parece ser que los primeros sites de Microsoft en testear este nuevo sistema de anuncios serán MSN Singapur y MSN Francia. Seguidamente, se extenderá al resto de países.

Estaremos pendientes de cuando esto se produzca, para poder realizar análisis sobre la segmentación y la aceptación y posterior expansión de la red de anunciantes de MSN.

Enlaces interesantes:

Alexa Ranks (http://www.alexa.com/site/ds/top_sites?ts_mode=global&lang=none )
Ranking mundial de páginas web según su número de visitas y páginas vistas.

Descubre la indexación del futuro: Google SiteMap

Google nos propone lo que va a ser la nueva forma de indexar páginas web.
Los motores de búsqueda como Google y Yahoo, utilizan arañas para recoger la información de las páginas web que hay publicadas en Internet. Una vez tienen la información, la procesan para poder ordenar rápidamente los resultados de búsqueda, en función de un algoritmo determinado, cuando un usuario acude a sus respectivas páginas web e inquiere algún término o alguna frase.

Las arañas de los buscadores visitan periódicamente las páginas web que están publicadas en Internet y actualizan automáticamente la información acerca de su contenido.

Hasta ahora, las arañas entraban en el directorio raíz de un dominio, buscaban el fichero robots.txt para asegurarse de que el site deseaba ser indexado y luego procedían a visitar todos los enlaces que encontraban en la página web, registrando así todo el contenido de la página.

Google SiteMaps va a revolucionar esta forma de indexar las páginas web.

No es sólo que Google ahora lea con más detenimiento los mapas del site que la gente incluye en sus páginas web… no es nada de esto… es una nueva forma radical de indexar el contenido de las páginas. Google nos propone la creación de un sitemap en XML siguiendo unas especificaciones determinadas que darán toda la información a sus arañas y que les permitirá el acceso a urls que hasta ahora podían haber estado escondidas por diversos motivos ajenos a la voluntad de los webmasters.

Google desea poder acceder a todo el contenido de las páginas web de la forma más fácil y eficiente. Tal como ahora está planteada la indexación de páginas, aún siendo mucho más eficiente que los índices humanos que teníamos antaño (quién no recuerda haber ido a un buscador, haber insertado a mano la definición de nuestro site, las palabras clave por las que deseábamos ser encontrados y la URL del site… pero esto es ya prehistoria internáutica), lo que Google nos plantea ahora es muchísimo mejor.

Todo consiste en poner a la disposición de las arañas un sitemap especial.

Para crear este sitemap, basta con disponer una aplicación que se instala en nuestro servidor (hay versiones para todos los sistemas operativos) y que crea un mapa del site en un formato determinado. La aplicación que nos propone Google puede generar el mapa a partir de las URL de la página web, a partir de los directorios de la página web, o a partir de los logs del servidor (ideal para páginas dinámicas).
Una vez tenemos el sitemap hecho según las especificaciones de Google, podemos darlo de alta en Google SiteMaps. Automáticamente y en menos de 4 horas, Google lo habrá indexado.

Google permite que los webmasters creen un cron que genere un nuevo mapa hasta cada hora (para sites con mucha renovación de contenido) y que haga el submit del mapa automáticamente en Google Sitemaps. De esta manera, las arañas conocerán de inmediato las nuevas páginas creadas y las podrán incorporar al índice.

Ventajas de esta aplicación:

No importa lo mal que tengas la página web a nivel de caminos para las arañas… con un site map creado por el Sitemap Generator, las arañas de Google siempre encontrarán las url de todas tus páginas.

Otra gran ventaja es la rápida indexación del contenido de todo el site. En menos de 4 horas, las arañas han visitado hasta 50.000 enlaces de nuestra página web. Para webs con más URLs, Google recomienda realizar diversos sitemap y disponer de un índice de sitemaps.

Desventajas de esta aplicación:

Requiere algo de conocimientos en programación, por lo que, o bien los ISP ofrecen este servicio como valor añadido para sus clientes o bien muchas páginas web no dispondrán de ese servicio y deberán seguir siendo indexadas por arañas normales y corrientes.

Los sitemap que ya están disponibles en la mayor parte de páginas web no son compatibles con el formato de Google. Google desea un documento en XML con unas especificaciones determinadas.

Con este proyecto, Google busca sin duda, la forma de mejorar la indexación de las páginas web y poder contar en sus índices con páginas que hasta ahora se perdían en un mar de enlaces dentro de nuestros sites.

Google ha creado el Sitemap Generator y el servicio de indexación Express y lo ofrece de forma completamente gratuita… será interesante ver la reacción de Yahoo ante esto, ya que Yahoo ofrece el servicio de indexación rápida previo pago de 49$, 20$ Ó 10$ según el número de url que deseemos indexar de forma acelerada.

De momento no disponemos de resultados de primera mano respecto a la efectividad de la indexación a través del SiteMap de Google. En cuanto tengamos instalado el nuevo sitemap en varias páginas web y estemos en disposición de hacer comparativas de número de incremento en páginas indexadas y de frecuencia de visititas de arañas, escribiremos un nuevo artículo informando de los resultados. Nos vemos entonces.

Nota posterior: Han pasado algunos meses desde que escribimos este artículo. Los resultados han sido muy buenos. Toda una web queda indexada de nuevo en menos de 24 horas. Es ideal para cuando una nueva web sale a la red. La puedes tener indexada en un momento, sin tener que esperar meses y meses a que las arañas de Google lean todo su contenido.

Información complementaria:

URL con información acerca del sitemap de Google:
https://www.google.com/webmasters/sitemaps/docs/en/about.html

URL con especificaciones acerca del sitemap de Google:
https://www.google.com/webmasters/sitemaps/docs/en/protocol.html

Los 8 factores clave para superar a tu adversario en Google

Nadie puede afirmar conocer el algoritmo que utiliza Google para ordenar los resultados de una búsqueda, pero es relativamente fácil investigar qué factores intervienen en él y en qué medida afectan al algoritmo. Además, en la red encontrarás mucha literatura al respecto y podrás ir ampliando conocimientos si el tema te apasiona.

Este artículo recoge los 8 factores clave que te ayudarán a conocer por qué otras páginas están por encima de la tuya, y cómo puedes superarlas.

1. Decide en qué palabras vas concentrar tus esfuerzos

No puedes luchar por muchas palabras a la vez, así que concentra tus esfuerzos en unas 10 palabras o frases, que creas que pueden ser buscadas en Google por tu público objetivo.

Empieza el análisis que te llevará al éxito confeccionando una lista de las 5 primeras páginas web que aparecen en los primeros resultados, cuando buscas esas 10 palabras.

Navega por las 5 páginas que te aparezcan. Haz especial atención en descubrir en qué palabras se están focalizando ellos.

2. Descubre dónde están situadas las palabras por las que tú quieres luchar

Observa bien dónde están colocando las palabras clave.

Google da más importancia a las palabras que están situadas en ciertas partes de una página web. La parte más importante es la URL (la dirección de tu página web), la siguiente es el tag <title>, la siguiente son las cabeceras <h1>, <h2> y <h3>, luego vienen las palabras que son enlaces a otras páginas, y la importancia va disminuyendo, aunque siempre es más alta que el texto plano, si las palabras están en negrita, en cursiva, forma parte de un <alt> (texto alternativo en las imágenes), etc…

3. Descubre qué densidad tienen las palabras clave

Ten en cuenta un par de cosas:

Google (y el resto de buscadores) funcionan por densidad, no por valores absolutos. Así que si en tu URL o en tu título tienes 50 caracteres y 9 coinciden con los que el usuario busca, el valor de tu URL o de tu título es de 9/50. Así que procura no poner textos superfluos o urls con tropecientos números que corresponden a una sesión de usuario o a algo parecido.

Ten en cuenta también, que desde marzo 2004 Google funciona por caracteres, no por palabras. De ahí que en el párrafo anterior haya escrito “caracteres” en lugar de palabras. Hasta marzo 2004, si tu título era “Mesas de madera para oficina”, y el usuario buscaba “mesas de madera”, el valor de tu título era de 3/5 (en castellano no filtraba las preposiciones y las consideraba palabras). Ahora no es así. Ahora va por letras. De esta manera, si alguien busca un derivado de una palabra o un plural, o un verbo conjugado, la página que contiene algo parecido también se incluye en los resultados de búsqueda.

Cuando descubras dónde tienen situadas las palabras, mira con qué densidad aparecen. En tu página web, haz que tengan mayor densidad que en las suyas. Lo puedes hacer incluyendo la palabra más veces o incluyendo menos palabras que no tengan que ver con esa búsqueda. La cuestión es elevar la densidad y superar la suya en cada una de las partes donde aparezca la palabra.

Ojo no te pases… Google penaliza las páginas con densidades sospechosamente elevadas. Puedes conseguir un 100% de densidad en el título y en la URL, sin que pase nada. Pero una página donde ponga una palabra repetida 100 veces, por todas partes, en negrita y con enlaces, y no incluya ningún otro texto, puedes tener por seguro que será expulsada de Google. Así que moderación.

Además, piensa que tu página web tiene que ser leída por tus usuarios/clientes… es fundamental que el texto esté orientado a ellos, no a su efectividad en buscadores.

4. Descubre cuántas páginas tienen sus páginas web

Cuantas más páginas tengas indexadas en Google, más posibilidades hay de que participes en la lucha por ciertas palabras. También hay indicios de que Google sitúa en mejor posición a las web que contienen un número elevado de páginas donde se incluye el término de búsqueda.

O sea, por un lado, incluye las palabras por las que quieres posicionarte en el máximo de páginas posible. Por otro lado, intenta que tu web tenga sobre unas 200 páginas como mínimo.

Pero una vez más, descubre qué hacen tus competidores e inclúyelo en la tabla que empezaste a realizar al principio de este estudio.

Para saber cuántas páginas tienen indexadas en Google, basta con que escribas en la cajita buscadora:

site:www.nombredelaweb.com

(ojo no incluyas un espacio entre site: y la url)

Para saber cuántas páginas indexadas contienen una palabra en concreto o una cadena de palabras, basta con que escribas en la cajita buscadora:

site:www.nombredelaweb.com “palabra o frase”

Esto te dará el número de páginas que contienen la frase “palabra o frase” en la página web www.nombredelaweb.com

5. Descubre el número de enlaces que apuntan a sus páginas

El algoritmo que forma el PageRank (nota cultural: PageRank significa “ranking de Larry Page”, no “ranking de páginas”), está formado por otros muchos algoritmos y es bastante complicado de entender. Pero hay unos rasgos básicos que fácilmente puedes aplicar a tu página web.

En el PageRank influyen sobre todo, el número de enlaces que apuntan a una página web, la densidad de estos enlaces en la página de origen y el PageRank de la página de origen.

Así que este punto número 5 versará sobre el primero de los factores que afectan al PageRank: el número de enlaces.

Una vez más, anota en tu listado el número de páginas que enlazan a cada una de las 5 webs competidoras que estás analizando.

Para saber el número de enlaces a una página, basta con que escribas en la cajita buscadora:

link:www.nombredelaweb.com

Desde marzo del 2004, Google da menos valor a los enlaces que provienen de páginas con la IP parecida a la tuya, así que no hace falta que hagas trampas: Google lo sabe.

Escribimos un artículo acerca del algoritmo HillTop que utiliza Google para calcular y filtrar el PageRank de las webs, hace unos meses: HillTop

6. Analiza qué tipo de web enlaza a la de tus competidores.

Con toda probabilidad no podrás incluir en tu listado el PageRank de cada una de las páginas que enlazan con las de tus competidoras, pero es importante que veas qué tipo de web son, qué PageRank tienen, a cuántas otras páginas web enlazan y qué palabras utilizan para linkear a tus competidores.

Cuanto mayor es el PageRank de una página que te enlaza, mayor es el número de puntos que recibes por este enlace. Así que busca páginas con un PR alto y consigue que te enlacen.

Para terminar con este punto, no olvides que en Google y en el resto de buscadores, todo funciona por densidades, así que si de una web salen 100 enlaces a otras webs, el valor de un enlace que vaya a ti es de 1/100. Así que olvídate de las granjas de enlaces. Consigue enlaces a tus páginas en webs con pocos enlaces y con un PageRank alto.

7. Descubre qué palabras utilizan tus competidores en los enlaces que van a sus webs

Si la palabra buscada forma parte de un enlace de un tercero a tu página web, tienes un bonus en puntos (por decirlo de alguna manera). Así que si te dedicas a la fabricación de mesas de madera para oficina, procura que las páginas que enlazan a la tuya utilicen la frase “mesas de madera” para enlazarte, en lugar de www.minombredeempresa.com

Obviamente, no siempre puedes controlar qué palabras utilizan terceras webs para enlazar a la tuya… pero por cuando puedas hacerlo, recuerda este punto número 7: recuerda el bonus que te llevas si lo consigues!!

8. Anota qué PageRank tienen las páginas de tus competidores

No olvides incluir una columna en tu estudio que indique qué PageRank tienen las páginas web de tus competidores. Esto te ayudará a entender por qué están en las primeras posiciones.

Recuerda que para aumentar tu PageRank debes, sobre todo, incrementar el número de páginas que enlazan a la tuya. Así que si tienes un PageRank de menos de 4, ponte manos a la obra para conseguir más enlaces. Si lo tienes de más de 4, es bastante difícil subirlo si no realizas alguna campaña específica para este fin, bien ideada y con una buena estrategia.

Tampoco te obsesiones si no tienes PageRank asignado o hace tiempo que no varía tu PageRank a pesar de las acciones que llevas a cabo. El PageRank no es algo que Google calcule cada día, ni siquiera cada mes. Este año, sin ir más lejos, Google ha estado sin calcular PageRanks desde junio hasta primeros de octubre. Desde entonces no los ha calculado de nuevo y además ha indexado 4.000.000.000 más de páginas web que antes no tenía… así que no sabemos cuándo volverá a calcular los nuevos PageRank. Ten paciencia.

Hasta aquí, hemos descrito los 8 factores clave que te llevarán a ganar posiciones en Google. Pero cuando realizo este tipo de benchmark, suelo incluir tres columnas más en el listado. Se trata de la posición de nuestros competidores en el ranking de Alexa. No es que Alexa influya en Google, pero es bueno saber dónde están situados a nivel de visitas únicas, de páginas vistas por usuario y de ranking en general. Estos tres datos los encontrarás buscando a tus competidores en Alexa.com.

Espero que los 8 factores te hayan sido de utilidad. Este artículo está orientado a servir de guía a personas que desean conocer la posición exacta de sus páginas web, respecto a las de sus competidores. No pretende ser manual en profundidad acerca de cómo funciona Google.

Si deseas ver la presentación que utilizamos cuando realizamos conferencias acerca de cómo funcionan los buscadores, puedes descargártela aquí: Diapostivas COPCA

Si deseas más información sobre buscadores: Curso gratuito de Posicionamiento en Buscadores

Por cierto, si tienes dudas o deseas ampliar más algún punto en concreto, estaremos encantados de asistirte.

Descubre como funciona Google Scholar, el nuevo buscador de Google

A finales de la semana pasada Google puso online la versión beta de Google Scholar, su nuevo buscador para localizar información técnica entre todos los artículos, estudios, tesis, white papers, case studies, informes técnicos, investigaciones, documentación de centros de investigación y universidades, libros, etc… publicados.

No ha pasado ni un mes desde que Google lanzo su herramienta Google Desktop Search que ya nos ha vuelto a sorprender gratamente lanzando Google Scholar.

La imagen inicial es muy similar a la del buscador Web de Google, sin embargo, a la que hemos introducido un tema de búsqueda y le damos al botón de “search”, nos aparece una ventana de resultados ordenados con información nada comercial y sin anuncios. Los criterios de ordenación tienen en cuenta el contenido de los documentos, el autor, la publicación en la que aparece dicho documento y, de manera similar a como lo hace para la versión Web con los links-in, la cantidad de citas a dicho artículo en otros documentos. Por último, llama la atención que los enlaces mostrados no son únicos, ya que un mismo artículo puede ser publicado en diferentes medios. Presenta incluso enlaces a documentos referenciados por los estudios (incluso pueden no existir en la Web), concepto similar a los links-out de la versión Web.

Para limitar las búsquedas por autor, nos permite incluir en la caja buscadora el filtro “autor:”, que podemos escribir solo o junto con el tema o concepto que estamos buscando para limitar el número de resultados a obtener.

Pasando a la práctica, me he dedicado a hacer unas cuantas búsquedas en las dos versiones de Google para ver las diferencias reales. La primera búsqueda que he realizado es “eye tracking technology”. La versión Web me ha devuelto 1.040.000 referencias y cuatro anuncios. De los 10 primeros resultados obtenidos, 4 son empresas que comercializan soluciones relacionadas con dicha tecnología. Los 6 restantes son estudios o información técnica relacionada. Por contra, los 13.600 resultados mostrados por Google Scholar son 100% técnicos, no apareciendo referencias comerciales o anuncios… así que perfecto!

He tomado un segundo ejemplo, “web metrics”. Los resultados obtenidos han sido curiosamente muy similares. De los siete anuncios y 2.050.000 resultados obtenidos para la versión Web, un 40% han sido resultados técnicos y un 60% resultados comerciales. Para la versión Google Scholar, han sido 28.000 los resultados obtenidos, todos ellos técnicos nuevamente.

Por último, mencionar a los autores cuyos documentos técnicos no han sido todavía indexados que deben solicitar a su universidad, escuela o editorial que contacte con Google Scholar para que incluya dicho contenido. Google Scholar no permite de momento la publicación directa por parte del autor de informes y documentos. Hay más información disponible en las preguntas frecuentes.

Definitivamente, una herramienta que dará mucho que hablar en la comunidad investigadora a partir de ahora.

Descubre cómo funciona A9: la versión definitiva del buscador creado por Amazon

A9 de AmazonCómo funciona A9, en qué tipo de algoritmos se basa, porqué se llama A9, quien lo ha ideado, y todo lo que hemos podido saber acerca de este nuevo buscador que tendrá que medírselas con Yahoo, Google y el nuevo MSN que Microsoft tiene en beta. ¡Vamos a verlo!

La entrada de A9 en el mercado de los buscadores nos abre un interesante periodo en que la guerra por monopolizar las búsquedas de los usuarios toma una nueva dimensión.

Con la nueva versión que Amazon colgó ayer, vamos a revisar de nuevo los temas tratados en el análisis funcional para encontrar las diferencias, ver si han corregido los puntos débiles que mostraban en abril y descubrir las novedades que nos presenta este buscador.

Servicio de Personalización de Búsquedas:

Cuando entras en A9 y eres usuario de Amazon, la misma cookie te reconoce y te saluda con un “Hello Montserrat” que me deja pasmada y que, por el impacto, no puedo evitar que me haga pensar en un “Welcome professor Falken, ¿Would you like a game of chess?” :-)

A parte del nombre, me muestra la caja buscadora y el histórico de todas mis búsquedas en A9 por si deseo consultar algún resultado anterior (y no sé si lo han programado así, pero también podría servir para conocer tus elecciones en los resultados de búsquedas que te han ofrecido, y así poder ofrecerlos mejor la próxima vez que buscas algo… lo descubriremos con el tiempo)

Acerca de la base de datos utilizada por A9:

Definitivamente A9 utiliza la base de datos de Google, en lugar de utilizar la de Alexa (recordemos que Alexa fue comprado por Amazon en el 2000 y que Alexa tiene escaneadas más páginas web que Google… aunque Google mantiene limpia su base de datos y borra cada 6 meses las páginas web a las que sus spiders no han podido acceder durante ese periodo de tiempo, … Alexa no lo hace)

En el análisis de abril, comentábamos que utilizaba la base de datos de Google, pero que no la utilizaba entera, sino sólo una porción de ella. Ahora confirmamos que la utiliza entera: realizando búsquedas del tipo site:www.solocine.com obtenemos el mismo número de resultados (aprox.), en ambos buscadores.

Acerca del Algoritmo de ordenación de A9

Es el de Google, sin dudarlo.

Ofrece alguna variación en el orden de los resultados, pero creo que es más debido a que tanto Google como A9 aplican filtros a los resultados sin que te enteres, que al algoritmo mismo. Por ejemplo, según el idioma del layout de Google que tengas, cuando buscas resultados en Castellano, te ofrece resultados diferentes… aunque tu insistas en que deseas que no haya filtros por medio…

Es una lástima que no hayan optado por utilizar su propio algoritmo y competir con Google en ver quien ofrece búsquedas de mayor calidad. Aunque usen su misma base de datos… A9 lo tenía muy fácil para usar el ránking de Alexa en lugar del PageRank a la hora de determinar la relevancia de una página e influenciar así el algoritmo de ordenación de resultados. Pero parece claro que ha optado por aliarse a Google en lugar de por competir contra él.

Acerca de la publicidad en A9

Utiliza el sistema de Adwords de Google y de Links Esponsorizados de Google. Directamente servido desde las propias máquinas de Google (se puede ver en la url de redireccionamiento de los anuncios)

¿Cual es la propuesta de valor de A9? ¿En qué se diferencia del resto?

Puesto que estamos viendo que A9 de momento es básicamente un Google con otro look&feel, veamos en qué se diferencia:

  •  A9 ofrece resultados de búsqueda de imágenes al mismo tiempo que ofrece la búsqueda en web e incluso al mismo tiempo que busca en los textos de los libros de Amazon. Es una función muy cómoda y que facilita el descubrir si esa página te interesa o no.
    La mayor parte de las funciones de la web funcionan con “drag & drop”. Es la nueva tendencia en la usabilidad de aplicaciones destinadas a usuario final. Todo se arrastra y se coloca donde deseas que funcione o que se guarde.
  • Servicio de Búsquedas Favoritas (Bookmarks): si arrastras hacia Bookmarks la url de una web de las que aparecen en un resultado, esta queda automáticamente guardada allí para que puedas consultarla cualquier otro día.
  • Ofrece 4 skins diferentes y 3 tamaños de fuente: Si quieres ver A9 en color violeta y con letras aptas para miopes sin gafas, A9 te lo permite.
  • Ofrece la “Site Info” de Alexa en todos sus resultados de búsqueda: los resultados que ofrece tras una búsqueda determinada van acompañados de un pequeño icono de “site info”. Este icono funciona como en Alexa, activa una layer con información sobre la página (posición en el ranking de Alexa, links a la página, velocidad de descarga, etc.)

No creo yo que Udi Manber esté muy satisfecho con el nuevo A9. Manber es un especialista en algoritmos, ex “jefe de algoritmos” de Amazon, ex “director científico” de Yahoo y ex profesor de informática de la Universidad de Arizona…  no lo veo como alguien que se contente con sacar al mercado un Google con algunas cosillas retocadas en superficie… Desconozco por cuanto tiempo se ha cerrado el acuerdo con Google y si hay o no dinero por medio (a parte de los Adwords, que beneficia a ambos. Los Adwords de Google también están en Amazon).

El tiempo nos lo dirá… pero tengo la esperanza de que A9 acabe siendo la crisálida de algo mejor que nos espera en un futuro próximo… o quizás muera en el intento… ya veremos.

Como curiosidad: Udi Manber es el artífice del nombre de A9, que hace referencia a las 9 letras de la palabra algoritmo en inglés (Algorithm).

Por cierto… la url de A9 es www.a9.com por si quieres jugar un rato y encontrar las diferencias respecto a Google :-)

¿Qué es el Hilltop algorithm?

Desde marzo del 2004, Google da menos valor a los enlaces que provienen de páginas con la IP parecida a la tuya, así que no hace falta que hagas trampas para modificar tu PageRank y por lo tanto mejorar tu SEO: Google lo sabe.

A este filtro modificador del PageRank se le llama Hilltop algothim

Google ha implementado este cambio en su algortimo para neutralizar una trampa que algunos webmasters especialistas en SEO vienen haciendo desde que el PageRank entró en funcionamiento: crear un sin fin de pequeñas web, alojadas en tu mismo ISP, que enlazan hacia tu web principal.Authority Pages

También las grandes corporaciones han abusado del hecho que un gran número de enlaces entrantes te hacen mejorar el posicionamiento… sin ir más lejos, en SoloStocks tenemos enlaces en el pié de página hacia todas las webs del Grupo Intercom… y por lo tanto, en todas las páginas de Softonic (por citar una de nuestras empresas) también hay un enlace hacia SoloStocks. Puesto que Softonic tiene más de 500.000 páginas indexadas en Google, mi web recibe 500.000 enlaces externos. Cosa que a mi me parece estupendo… pero que no es 100% justa desde el punto de vista del un webmaster independiente que gestiona un sitio web con contenido magnífico pero que nunca se posicionará por encima del mío… hasta que Google ha implementado Hilltop ha neutralizado el efecto de los enlaces.

Así que lo dicho… no hace falta que, para mejorar el SEO de tu web, pierdas el tiempo incluyendo enlaces en webs que están alojadas en el mismo IP que tu… ya que Google ahora analiza las IP desde las que llegan los enlaces entrantes y le ha bajado el peso enormemente a las que tienen una IP parecida a la tuya.

 

Efectos del Google Dance de septiembre/Octubre 2004

A diferencia del Google Dance de marzo 2004, este septiembre todos esperábamos los nuevos PageRank y la limpieza de la base de datos con la consecuente desindexación de todas las páginas a las que sus arañas no han podido acceder desde la última gran limpieza, llevada a cabo en marzo… pero no ha sido así.

Vale, ok… empecemos por el principio…

¿Qué es un Google Dance?

Son los cambios que se producen en el algoritmo de Google cada cierto tiempo y que provocan que los resultados que aparecen en las primeras posiciones cambien de lugar y “bailen”.

 

El baile de septiembre se quedó corto

En septiembre 2004 Google se ha limitado a publicar resultados como un mes más; sin modificar el PR (al menos externamente, ya que no podemos estar seguros de que el PageRank que aparece en la barra de Google sea realmente el que Google utiliza para calcular el algoritmo de ordenación de resultados) y Google sólo ha mostrado algunas variaciones en los resultados… Pero llegó Octubre, y con él, el nuevo PageRank.

¿Desde cuando Google no recalculaba el PageRank?

Desde medio los PageRank de las páginas web junio no se habían recalculado masivamente.

Concretamente, según rumores, no se habían recalculado desde que el algoritmo del Check Sum http://google.dirson.com/noticias.new/0569/ empezó a correr por Internet.

Cambios en el cálculo del PageRank

Comentábamos en un artículo de marzo, que tras el Florida Update, Google había incluido en el algoritmo del PageRank un filtro para discriminar las webs de grandes corporaciones o de un mismo propietario, que realizaban intercambios de enlaces con el único fin de hacer subir su PageRank. Este filtro parece seguir activo.

Este filtro es un complejo algoritmo por si mismo, y lo explicábamos en el artículo:

¿Qué es el HillTop algorithm?

Pero veamos que ha estado haciendo Google estos últimos 3 meses:

25 agosto: grandes movidas en el orden de los resultados

Movidas primero atribuidas a un Google Dance, pero luego, pasadas unas semanas, las webs afectadas vieron como se recuperaban las posiciones anteriores, así que todo apunta a que fueron pruebas realizadas en el algoritmo.

23 de septiembre: nuevas movidas

Empiezan a publicarse nuevos resultados a partir de todo el material que las arañas de Google han recogido hasta el 30 de agosto (excepto las homes de las webs, que Google las actualiza cada dos ó tres días). Empiezan seriamente las dudas acerca de si el PageRank que muestra la barra es el PageRank que utiliza Google para sus cálculos… y se sospecha que no ha actualizado los datos que muestran las barras, pero sí los que utiliza para sus cálculos.

7 de octubre: empieza la asignación de nuevos PageRank

A partir del 7 de octubre, algunas páginas con PageRank cero, han empezado a mostrar PageRank en las barras de Google. Esto lo hemos podido constatar con la aparición del PageRank en la barra de Google en las páginas que han sido creadas durante julio, agosto y septiembre, y que hasta ahora nos mostraban un cero.

También en el site PageRank Watch, podemos ver algunas web que a partir de ese día, tienen el PageRank asignado o modificado.

Algunas novedades en las búsquedas de Google

Búsquedas en las páginas de libros escaneados

Sabíamos que tras la colaboración con Amazon (A9, el buscador de Amazon, corre sobre el motor de Google), Google era capaz de buscar dentro de los libros que Amazon tiene a la venta. Ahora, desde Google mismo, si deseas encontrar resultados que aparezcan dentro de un libro, puedes realizar la siguiente consulta:

book (+el nombre que sea por ejemplo: book shakespeare)

Esto mostrará un primer resultado con un icono que indica que es un resultado que ofrece las palabras que buscas y que aparecen dentro de un libro. En realidad, la búsqueda se hace sobre http://print.google.com la base de datos de libros escaneados que utiliza Google.

Los libros pertenecen a varias librerías online, no sólo a Amazon.

Con toda probabilidad, a lo largo de este año iremos descubriendo más cosas acerca del Google Dance de septiembre/octubre 2004…

Por qué eBay (y posiblemente Google) abren su código fuente a los desarrolladores

La respuesta rápida al “por qué”: pues porqué es la evolución lógica de una Red de Metcalfe a una Red Grupal. Si te interesa el tema… sigue leyendo.

Empecemos por el principio:

¿Qué es una Red de Metcalfe?

Una Red de Metcalfe es un negocio con una estructura determinada de forma que genera valor a partir de la Ley de Metcalfe.

(… sí vale, gracias)

¿Qué es la Ley de Metcalfe?

La ley de Metcalfe postula que el valor de una red aumenta proporcionalmente al cuadrado del número de usuarios del sistema. Esto no es cierto al 100% (luego te explico por qué), pero lo cierto es que esta ley es de gran aplicación para determinar el crecimiento previsto para un negocio y la generación de valor que va ligada a este crecimiento.

Analicemos todo esto…

La estructura de los negocios tradicionales

(Tanto si están online como si están offline)

En un negocio tradicional, un proveedor ofrece un servicio o vende un producto a un número “n” de clientes. Y el número de transacciones potenciales a realizar en un momento dado, sin llegar a repetir clientes, equivale exactamente al número de clientes que se tenga. (Ver imagen 1)

 

Negocio Tradicional

Imagen 1: Negocio con estructura tradicional

El valor de este negocio está en función del número de clientes que tenga (por supuesto, existen más factores que influyen en el valor del negocio, pero en una hipotética fórmula de cálculo del valor, nuestra “n” es una de las variables… y es la que en este artículo vamos a analizar).

En un negocio tradicional, el número de posibles transacciones crece de forma lineal. O sea: +1 cliente equivale a +1 posible transacción.

La estructura de los negocios en red

Hay ciertos negocios, como el de una red telefónica, que no funcionan como un negocio tradicional. Todos los usuarios son oferta y demanda a la vez (emiten llamadas y reciben llamadas), así que el número de posibles transacciones es prácticamente n^2 (“n” al cuadrado) … y digo “prácticamente” porqué en realidad es n*(n-1) ya que la oferta son todos los usuarios, pero la demanda, son todos menos tú mismo… no se realizan llamadas sobre uno mismo. (En el resto del artículo, consideraremos que es n^2 para no complicar las fórmulas, pero por favor, téngase en consideración).

La primera persona en postular una ley sobre este tipo de comportamiento en un negocio fue Robert Metcalfe (o eso cuenta la leyenda), inventor de la Ethernet cuando en Xerox inventaron la primera impresora láser en 1974 y no sabían cómo conectar más de un ordenador a la vez a esta impresora. La Ley de Metcalfe postula que el valor de un sistema en red crece, aproximadamente al cuadrado del número de usuarios de la propia red. (Ver imagen 2)

Red de Metcalfe

Imagen 2: Negocio con estructura de Red de Metcalfe

De ahí que a los negocios con estructuras circulares donde todos los usuarios pueden ser oferta y demanda a la vez, se les llame Redes de Metcalfe.

El ejemplo más bello de Red de Metcalfe lo tenemos en eBay. Tiende a la perfección, concretamente, en su vertiente C2C (consumidor a consumidor). Cualquier usuario es un potencial vendedor y cualquier usuario es un potencial comprador. Su crecimiento es lo más cerca de n^2 que podemos encontrar en Internet.

Las webs de contactos que tanto están proliferando estos últimos años, también son claros ejemplos de bellas redes de Metcalfe perfectamente redondas. Y digo redondas, porqué hay redes cuya estructura no es redonda como la de la imagen 2. Son las redes donde claramente hay un lado con oferta y otro con demanda. En ese caso, el número de transacciones potenciales sigue siendo oferta*demanda, pero no tiende al cuadrado ya que son números distintos. Por supuesto, están elevadas a un coeficiente que es mayor que 1, que sería el del negocio tradicional; pero es menor que 2, que sería el de una Red de Metcalfe perfecta.

Un ejemplo de este tipo de red no perfecta sería SoloStocks.com, donde las empresas que venden sus stocks, no son todas potencialmente compradoras de stocks (excepto si todos brokers… entonces sí; ¿ves la diferencia?). (Ver imagen 3)

Variante de red de Metcalfe

Imagen 3: Negocio con estructura variante de Red de Metcalfe

Si el número de transacciones potenciales en una red perfecta de Metcalfe de 8 usuarios sería 8*(8-1)=56, el número de posibles transacciones en una red no circular con 8 usuarios (supongamos que 4 que ofertan y 4 que demandan) sería 4*4=16 o sea, que el coeficiente de externalidad de red de ese mercado sería de 1,33 en lugar de 2, y que por lo tanto la generación de valor crecería a velocidades inferiores que las de una Red de Metcalfe perfecta puesto que esta ofrece mucho más valor a sus usuarios, pero superiores a las de un negocio tradicional que ofrece mucho menos.

En un mercado como SoloStocks es interesante darse cuenta que cuanto mayor es el desequilibrio entre el número de usuarios ofertantes y usuarios demandantes, menor es el crecimiento del negocio y que por lo tanto siempre hay que luchar por equilibrar el número de ofertantes y el de demandantes.

Veamos un ejemplo de esto: supongamos una red de 8 usuarios donde 5 son oferta y 3 son demanda, el número de potenciales transacciones sería 3*5=15 y, por lo tanto, el coeficiente de externalidad de red 1,29. Si la desequilibramos más y tenemos 6 ofertantes y 2 demandantes el número máximo de transacciones es de 12. Y así…, hasta llegar al máximo desequilibrio posible, que sería el negocio tradicional (o cualquier comercio electrónico), donde hay 1 vendedor y 7 compradores (…para seguir con una red de 8 como teníamos antes); el número de potenciales transacciones sería 1*7=7 y por lo tanto el coeficiente de externalidad de red, sería 1, que es justamente lo que comentábamos cuando hemos explicado al principio la estructura de un negocio tradicional: el número de transacciones potenciales equivale al número de clientes.

Bueno… si no te has mareado con tanto número y letra, y sigues leyendo, pasaremos al siguiente nivel de evolución de una red y descubriremos, por fin :-) , por qué eBay y quizás también Google (a juzgar por los rumores que corren por la red) abren su código fuente:

Las Redes Grupales o Group Forming Networks

Cuando en una Red de Metcalfe la tecnología permite a sus usuarios organizarse alrededor de intereses u objetivos comunes, empiezan a aparecer pequeñas Redes de Metcalfe que gravitan alrededor de una gran Red a la que la alimentan. (Ver imagen 4)

Red Grupal

Imagen 4: Negocio con estructura de Red Grupal o Group Forming Network

Desde hace tiempo, eBay ha ido creando o participando en la creación, de pequeños sites que se especializaban en cierto tipo de subasta y, por lo tanto, ha ido evolucionando hacia este modelo de Red con estructura que recuerda una margarita. Abriendo su código, propicia que una infinidad de programadores empiecen a desarrollar aplicaciones que giran alrededor de la gran Red y que acabarán formando los pétalos de la margarita.

Con el código cerrado, sólo ellos pueden crear los pétalos. Con el código abierto tienen un potencial escalofriante de posibles pétalos a ser creados.

El crecimiento de las Redes Grupales tiende a esta fórmula: a^n, donde “a” depende del número de posibles canales que se puedan abrir, y donde “n” es el número de usuarios.

El negocio teóricamente perfecto sería aquel que consiguiese que, para cada usuario de la red principal, fuese posible crear una subred. Su estructura sería algo parecido a:   n^n  (no sé de ninguno y estoy segura que sólo es un modelo teórico… pero cuanto menos, es interesante tenerlo en mente).

Resumiendo:

Los negocios tradicionales, crecen de forma lineal, según el número de clientes (demandantes del servicio) que tengan: oferta*demanda o sea 1*compradores

Los negocios con estructura de Red de Metcalfe, crecen casi al cuadrado del número de usuarios que tengan: n*(n-1) o simplificando: n^2

Los negocios con estructura de Red Grupal, crecen de forma exponencial: a^n
La apertura de los códigos de las aplicaciones aceleran este crecimiento, haciendo crecer la “a”.

Si aún no te has aburrido y sigues leyendo, aquí va un regalo:

¿Qué pasa cuando unes varias redes de Metcalfe?

Negocio 1: m número de usuarios

Negocio 2: n número de usuarios

Suma de los usuarios de 2 negocios tradicionales: m+n
Suma de los usuarios de 2 Redes de Metcalfe:
(m+n)^2=m^2+n^2+2mn      –> aparece la sinergia!!! 2mn

(… y sí… esto es el Binomio de Newton que estudiaste en la escuela! ;-)

El crecimiento de 2 Redes de Metcalfe unidas, es superior a la suma de ambos crecimientos, por separado.

¿No es bello ver la palabra “sinergia” representada matemáticamente?