Entradas

Las búsquedas son cada vez más sofisticadas

Hitwise acaba de publicar un estudio en el que analiza los parámetros de búsqueda de los usuarios norteamericanos, en los buscadores de este país.Búsquedas según Hitwise

En este informe se indica que la mayor parte de los usuarios analizados utilizaron 2 palabras para realizar sus búsquedas, pero que la tendencia es a que pronto será 3 el promedio de palabras buscadas en dichos buscadores.

En la tabla que muestro junto a estas líneas podemos apreciar este cambio de tendencia, así como la tendencia general a realizar cada vez más búsquedas más sofisticadas utilizando gran cantidad de palabras.

Destaca el crecimiento del 18% en el número de usuarios que utilizan ocho o más palabras cuando han de realizar una búsqueda.

Más sobre el informe

El informe de Hitwise también comenta el incremento de la cuota de mercado de Google en EE.UU. que pasa a ser del 72,74% de las búsquedas del mes de abril 2009, frente al 67,93% de las búsquedas que se realizaron en este mismo mes pero en el año 2008.

Buenas noticias

Estos datos son interesantes desde el punto de vista SEO porque nos indican que debemos centrarnos en posicionar conceptos de 3 ó 4 palabras, cosa que facilita mucho el trabajo ya que no se trata de términos generales y por lo tanto no se compite contra tanta gente. También desde el punto de vista de generación de contenidos es mucho mejor trabajar con frases y grupos de términos, que no con palabras sueltas.

Enlace al informe de Hitwise: Informe Hitwise

Posicionamiento en Buscadores en el Corte Inglés de Sabadell

Mañana miércoles a las 7 de la tarde tendrá lugar en la Sala Cultural del Corte Inglés de Sabadell, el Curso de Posicionamiento en Buscadores que forma parte del ciclo de conferencias sobre Marketing Digital que estamos impartiendo en este centro comercial.

En ésta clase explicaremos las claves para aparecer en los primeros puestos en las búsquedas realizadas en Google y en el resto de buscadores.

Explicaremos tanto el cómo debe estar construida nuestra página web para que se indexe de forma óptima, como una vez que tenemos la página indexada, qué debemos hacer para mejorar nuestra posición.

Trataremos en profundidad los conceptos de densidad, de prominencia, de confiabilidad, el algoritmo de PageRank y muchos otros temas relacionados con la mejora del Posicionamiento en Buscadores. También explicaremos qué herramientas están a nuestra disposición en internet tanto para poder realizar el seguimiento de nuestro posicionamiento como para poder mejorarlo.

La asistencia es gratuita pero el aforo es limitado.
Si deseas asistir por favor contacta con el Corte Inglés de Sabadell: tel. 937284800 ext. 3240

Nos vemos allí.

Si no puedes venir… quizás te interese esto:

Presentación PTT con la que se ilustrará la conferencia: Posicionament a Cercadors (en catalán)
Curso gratuito de posicionamiento en Buscadores, vía la web de GEAIPC: Posicionamiento en Buscadores

Presentación de la Guía de Marketing Digital en Manlleu

Cámara de Comercio de BarcelonaHoy se ha presentado en Manlleu, en la sede que la Cámara de Comercio de Barcelona mantiene en esta ciudad, la Guía de Marketing Digital publicada por ésta cámara y por PIMESTIC.

Parte del acto de presentación ha consistido en una ponencia mía titulada “Las 9 Técnicas para Atraer Visitas a una Página web”. En esta charla explico las 9 formas de atraer tráfico a una página web.

La presentación ha sido todo un éxito,  la sala estaba llena, las empresas han hecho preguntas y al salir, bastante gente se ha quedado para hablar conmigo y para interesarse por las ayudas de PIMESTIC para empresas.

Como siempre, quizás me he entretenido demasiado en el posicionamiento en buscadores, pero dado que es la técnica número 1, la más efectiva y la más barata, pienso que vale la pena explicar un poco más de lo que el tiempo me permite… hoy no ha sido una excepción. También al explicar cómo optimizar una campaña SEM pienso que me he alargado demasiado… pero de nuevo, la gente preguntaba y pedía más. ¿Cómo voy a negarme?

Total, que en lugar de una hora, mi presentación ha durado 2 horas y media… pero nadie se ha quejado, ni se ha ido antes de finalizarla, así que creo que la han encontrado útil y de inmediata aplicación en sus negocios.

Por si alguna persona del público visita el blog, aquí van los enlaces relacionados con la ponencia:

La próxima: en Vilafranca del Penedés el día 31 de marzo a las 9h30′, en la sede de la Cámara de Comercio de Barcelona en esta ciudad.

Obama y el robots.txt de la Casa Blanca

Se ha hablando mucho acerca de cómo Barack Obama ha aprovechado internet para dar a conocer su candidatura y para conseguir movilizar votantes. También se ha comentado en muchos blogs el ambicioso plan tecnológico de Obama para EEUU (puede leerse aquí).

Pero una de las cosas que me ha llamado más la atención y que pocas personas han advertido: el cambio que ha sufrido el Robots.txt de la página web de la Casa Blanca, muy en línea con lo que Obama predica.

¿Qué es un Robots.txt?

Es un archivo de texto que contiene instrucciones sobre las páginas visitables y las no visitables por los Robots, de una página web. Es decir, indica qué partes de la página web no deben ser escaneadas por los robots.

Normalmente, se trata de contenido que aparece en la página web, pero sólo se desea que sea accesible a la gente que navega por la web, no se desea que éste contenido aparezca indexado en los buscadores. También se utiliza cuando un gestor de contenidos genera contenido duplicado y por lo tanto, penalizado por los buscadores.

Este archivo se crea siguiendo las instrucciones que podemos encontrar aquí: Robots, y todos los robots que siguen el “Protocolo de Exclusión de Robots“ se comprometen a hacer caso de estas instrucciones.

Si una página web no tiene creado este archivo de texto, los robots entienden que pueden indexarla (aunque al haber buscado el robots.txt de esa página los robots generan un error 404 y por lo tanto, es recomendable que se cree una página en blanco y se suba por FTP con el nombre de Robots.txt para que de esta manera, los 404 que se generen en la página serán reales y puedan ser depurados por el webmaster).

Volvamos al Robots.txt de la Casa Blanca

Hasta hace unos días, cuando explicaba en clase qué es un archivo Robots.txt y qué es el “Protocolo de Exclusión de Robots” ponía varios ejemplos para ilustrar los diferentes tipos de Robots.txt que podemos crear para dar instrucciones a los robots indexadores:

  • Una página robots.txt en blanco
  • Una página robots.txt con instrucciones más o menos “normales”
  • Una página robots.txt totalmente exagerada y fuera de lugar.

Pues bien… Obama me ha “saboteado” los ejemplos y se ha cargado mi ejemplo de mala praxis en cuestión de Robots.txt: El webmaster de la nueva página web de la Casa Blanca ha creado un nuevo Robots.txt perfectamente realizado, claro y conciso.

El webmaster de George Bush Jr., había creado un Robots.txt con miles y miles de páginas con el acceso prohibido a los robots. Ni decir cabe que… no había nada interesante en ese contenido (alguna vez me había dedicado a ir leyendo lo que no querían que fuese indexado… fotos de la first lady, discursos, etc…). Pero mostraba bien que los de la Casa Blanca tenían un concepto un tanto arcaico de lo que es internet y sobre la publicación de contenido.

El nuevo websmaster, en este sentido, muestra tener mucho más claro lo que debe ser la página web de una institución como la Casa Blanca.

Vale… ¿pero cómo era ese Robots.txt?

Por suerte, en las diapositivas de mis clases siempre incluyo pantallazos acerca de lo que explico, no sea que me falle la conexión a internet o que allí donde dé la clase no tengan conexión… (qué triste tener que pensar siempre en ésta posibilidad).

Así que bajo éstas líneas (al final del post) incluyo la imagen que tengo archivada y que ahora ya pasa a ser historia… (Observa la barra de scroll del pantallazo… es la que muestra la magnitud del listado)

La página robots.txt actual la puedes ver clicando aquí: Robots.txt de la Casablanca con Obama .

Si deseas más información sobre cómo crear un Robots.txt o para qué sirve, la encontrarás aquí: Robots.txt y también en el Curso Gratuito de Posicionamiento en Buscadores de nuestra página web: Curso de Posicionamiento en Buscadores

Robots.txt de la Casablanca

Ciclo de Conferencias Abiertas: “Las 16 cosas que hay que saber para vender online”

Hoy he tenido el placer de impartir ésta clase de Marketing Digital, en el Instituto Universitario de Posgrado, institución que imparte Másters on-line para profesionales, y que fue creada por Santillana Formación junto con las Universidades de Alicante, Carlos III de Madrid y Autónoma de Barcelona.

La clase ha sido impartida en formato videoconferencia y forma parte del Ciclo de Conferencias Abiertas impartidas por ponentes de prestigio del Instituto Universitario de Posgrado (IUP). La grabación de la clase podrá verse próximamente en la página web del IUP (www.iup.es)

Todo se ha desarrollado según lo previsto, exceptuando la duración de la clase, que ha sido un poco más larga de lo que teníamos en mente… y es que me cuesta mucho sintetizar tanta información en tan poco rato. Sobre todo cuando tocamos temas que me apasionan como el SEO, la optimización de campañas SEM y la Usabilidad. No hay manera en que pueda ser más concisa y no ir tanto al detalle… aun así, siempre me quedo con la sensación de que podría haber explicado más cosas. Pero el tiempo es el tiempo… la clase de Marketing Digital completa es, como mínimo, de 20 horas… no hay manera de poder sintetizar esto en una hora, ni leyendo únicamente el índice del temario. De ahí que la clase de hoy se haya limitado a las 9 técnicas básicas para atraer tráfico a una página web, y hemos tocado un poco por encima las 6 técnicas básicas para convertir las visitas en contactos comerciales.

Espero que los alumnos aparte de haber aprendido la existencia de éstas técnicas, hayan quedado con ganas de ampliar la información y ahora mismo estén buscando información complementaria.

Aquí va la presentación utilizada en la clase: Marketing Digital – Técnicas Básicas.

En cuando tenga el enlace de la grabación lo colgaré aquí también.

I Mesa redonda en buscadores web: marketing y posicionamiento en buscadores

El próximo martes 28 de octubre, a las 18:30, se celebrará en el Auditorio del edificio Ramblas de la Universitat Pompeu Fabra (Ramblas 32, Barcelona), la presentación de una nueva edición del Máster en Posicionamiento en Buscadores y Marketing Digital, así como una mesa redonda sobre Buscadores Web.

Tengo el placer de compartir mesa redonda con Fernando Macià de Human Level Communications, que hablará de SEO y con Cristòfol Rovira del Grupo de Investigación DigiDoc de la UPF que hablará de formación e investigación en buscadores. Yo hablaré de SEM (Marketing en Buscadores) y explicaré “Las 6 técnicas que nos ayudarán a optimizar nuestro presupuesto de Marketing en buscadores“.

Cada uno de nosotros presentará su visión sobre los buscadores y compartiremos experiencias relacionadas con la inteligencia de mercado, la estrategia de contenidos y el posicionamiento de marca.

Al final de las ponencias se abrirá un debate en el que los asistentes podrán plantear sus preguntas.

Pienso que será un acto interesante, tanto porque los tres puntos de vista y las aproximaciones a los buscadores de los tres ponentes son muy diferentes, como porque no es de cada día que se puede escuchar a Fernando Macià y a Cristòfol Rovira. Estoy segura de que yo misma aprenderé un montón de cosas nuevas. Además, como el Máster es online, es una oportunidad muy buena para conocer a los alumnos que asistan al acto, de esta manera, cuando hablemos con ellos en los foros de debate les podremos poner cara… que es algo que siempre echo de menos en este tipo de formación.

Nos vemos!

Más información sobre el acto: Mesa Redonda de Posicionamiento en Buscadores

Esta es la presentación con la que ilustré mi charla:

Nos hablamos.

AJAX, una técnica a usar con moderación

En este artículo explicamos qué es el AJAX, cuándo debe usarse y qué contraindicaciones tiene. También mostramos cómo subsanar algunas de las contraindicaciones.

¿Qué es el AJAX?

Las siglas AJAX significan: Asynchronous JavaScript And XML. Es decir, la combinación de JavaScript y XML de forma asincrónica.

Es una técnica desarrollada para aplicaciones Web interactivas, que consiste en hacer que un conjunto de tres tecnologías ya existentes trabajen juntas, de manera efectiva.

Estas tecnologías son:

  1. (X)HTML y CSS (Hojas de Estilo en Cascada), para dar una estructura y presentar la información en la página web.
  2. JavaScript, utilizado para la interacción dinámica con los datos.
  3. XML, utilizado para la interacción con el servidor web. Aunque no es simpre necesario utilizar XML con las aplicaciones AJAX, ya que por ejemplo, con ficheros de texto plano también se puede almacenar la información.

Al igual que el DHTML, AJAX no es de por sí una tecnología web independiente, sino un término que abarca las tres tecnologías antes mencionadas.

¿Para qué sirve el Ajax?

El Ajax sirve para efectuar cambios en una página web, a voluntad del usuario, sin tener que recargar toda la página de nuevo.

Por ejemplo, en una página web el usuario solicita alguna información que es ofrecida desde la misma página web (como ver la descripción de un producto) y al pulsar sobre el enlace, en la misma página (sin cargarla de nuevo) aparece la información solicitada.

El proceso de mostrar los datos realizado en HTML íntegramente consumiría bastante ancho de banda, ya que todo el HTML debería volver a ser cargado para sólo mostrar los cambios efectuados. En cambio, con una aplicación AJAX es mucho más rápido y no consume ancho de banda.

El JavaScript utilizado en la aplicación AJAX es un lenguaje dinámico, capaz de efectuar cambios en una página Web sin necesidad de re-cargarla. AJAX se asegura de que sólo la información necesaria sea solicitada y procesada, empleando SOAP u otro lenguaje de servicios web basado ligeramente en XML.

De ahí que a nivel técnico, se obtengan 3 ventajas: un tiempo de carga mucho menor, ahorro del ancho de banda del usuario y carga mucho menor del servidor donde está alojada la web.

Los problemas de AJAX

Problemas con la indexación en buscadores:

AJAX es utilizado por Google, Yahoo, Amazon y un sinfín más de buscadores, portales y creadores de contenido, pero no lo utilizan de forma general y masiva tal como algunos piensan. Google, por ejemplo, que apoya que los webmasters utilicen AJAX en sus programaciones, lo utiliza él mismo en GMail, en Google Suggest, en Google Maps, pero no en absolutamente todas sus páginas web.

El problema con AJAX es que el contenido que se muestra dentro de la aplicación que utiliza AJAX, no se indexa en los buscadores. Esto es así porque las arañas (spiders) de los buscadores no son capaces de interactuar con la aplicación AJAX y conseguir que se active el comando que muestra el contenido.

De ahí que sea una mala idea por ejemplo, crear un listado con el nombre de nuestros productos y hacer que con una aplicación AJAX al pulsar sobre un nombre de producto, se muestre la descripción del producto y su fotografía, a la derecha del listado. Si hacemos esto, las descripciones de los productos y sus imágenes no quedarán indexadas ni en Google ni en cualquier otro buscador.

Aunque no todo son malas noticias, ciertas formas de trabajar con AJAX sí que indexan, por ejemplo, las que juegan a mostrar o no mostrar contenidos utilizando márgenes positivos y negativos. Así que basta con que tengamos en cuenta a la hora de programar si las arañas podrán pasar o no podrán pasar.

Problemas con la accesibilidad:

Si partimos de la base que nuestras páginas web deberían ser siempre accesibles a todo tipo de navegadores y de usuarios y al menos deberían cumplir el estándar A del W3C (http://www.w3.org), nos encontramos en que la mayor parte de scripts que mejoran apariencia y la interactividad de una página web tienen problemas de accesibilidad. El AJAX también los tiene.

Como hemos visto al inicio de este artículo, la utilización de AJAX implica la utilización de JavaScript, y algunos navegadores no soportan este tipo de programación. Aunque como veremos más adelante esto tiene solución.

Pero tengamos en cuenta que una gran parte de las aplicaciones AJAX que encontraremos en las librerías que existen en Internet no han subsanado este problema y por lo tanto, son aplicaciones que no cumplen los standares W3C (al final de estas líneas ofrecemos enlaces a librerías de código y a artículos que tratan el tema de la accesibilidad y AJAX).

AJAX, a usar con moderación

Tal como hemos visto en apartado anterior, a pesar de que las aplicaciones AJAX aportan dinamismo, interactividad y reducción de ancho de banda a una página web, también tienen inconvenientes a nivel de indexación en buscadores y a nivel de accesibilidad. Por lo tanto, debemos tener en cuenta y neutralizar lo siguiente:

  1. Si utilizamos AJAX en nuestras páginas web, debemos ser conscientes de que el contenido que se muestre dentro de la aplicación AJAX no será indexado por los buscadores. Para subsanar este detalle, podemos crear este contenido de forma redundante y hacerlo accesible a las arañas a través de un sitemap o a través de enlaces en el pie de página de la web.
  2. Si utilizamos AJAX para hacer más interactiva nuestra página, debemos tener en cuenta que no cumpliremos el nivel A de accesibilidad, a menos que utilicemos las librerías de código aprobadas por el W3C o medios para navegar por la web sin necesidad de utilizar JavaScript.

Enlaces relacionados

Nueva información sobre la indexación de AJAX en Google (marzo 2010): http://code.google.com/intl/es/web/ajaxcrawling/

Ejemplos de páginas web que utilizan AJAX y librerías con código AJAX para ser utilizadas por webmasters:
http://ajaxpatterns.org/Ajax_Examples

Artículos donde se explica cómo conseguir código AJAX que sí cumple con el nivel A de accesibilidad del W3C:
http://www.maxkiesler.com/

Listado con errores comunes de accesibilidad:
http://www.w3.org/TR/WCAG20-SCRIPT-TECHS/#N11799

Google actualiza el valor del PageRank que muestran sus barras

Actualización del PageRank de Google en mayo 2007.

Tal como estaba previsto, éste fin de semana Google ha actualizado el PageRank que se muestra en las barras de Google que los usuarios tienen instaladas en sus navegadores. Google sólo actualiza estos datos cada cuatro meses.

¿Qué es el PageRank y qué importancia tiene en el algoritmo de ordenación de resultados?

El PageRank es el algoritmo que Google utiliza para dar un valor numérico a la importancia que tiene una página web. Este valor lo utiliza como parte del algoritmo que marca el orden en el que se muestran los resultados de una búsqueda en Google.

El PageRank se llama así en honor a su creador Larry Page. PageRank no significa “ranking de páginas”.

La finalidad de PageRank es asignar un valor numérico a las páginas web según el número de veces que otras páginas las recomienden y según el PageRank que tengan éstas páginas. Es decir, establece la importancia de esa página web.

Desde el 24 de enero (día en que Google cambió su algoritmo de ordenación para neutralizar algunas de las trampas que realizaban webmasters desaprensivos), en el PageRank también influye la confiabilidad de la página web… (pero esto no lo explicaremos ahora, sino que será motivo de otro artículo).

¿Cómo funcionan las actualizaciones?: diferencia entre el PageRank real y el PageRank de la barra de Google

El PageRank que nos muestra la barra de Google sólo se actualiza una vez cada 4 meses, aproximadamente.

La barra nos muestra un PageRank en base 10 en una escala logarítmica. Es decir, es fácil subir de 0 a 1 ó de 2 a 3, pero en cambio es muy difícil subir de 5 a 6, y aun más subir de 6 a 7. Pero este no es el PageRank real de nuestra página, sino el valor que Google le asignó la última vez que actualizó el PageRank de la barra.

La última actualización se llevó a cabo el 24 de enero y esta vez lo ha hecho el 1 de mayo, unos días antes de que se cumplieran los 4 meses preceptivos.

Durante 2006 hubo 4 actualizaciones de PageRank: en febrero, en abril, en julio y a finales de septiembre. Es decir, en 4 ocasiones durante 2006 Google ha calculado el valor del PageRank en base 10 y lo ha exportado a los servidores que alimentan las barras de Google. Durante el 2007 está siguiendo el mismo patrón.

El PageRank que utiliza Google para sus cálculos es mucho más preciso y utiliza una escala mucho mayor, aunque no sabemos cuánto, y en Google hay un hermetismo completo a este respecto, aunque parece que es en base 100. Sus servidores internos lo actualizan diariamente.

¿Cuándo será la próxima actualización?

Si todo sigue su curso, deberíamos esperarla hacia principios del mes de septiembre. Así que todas las acciones para subir el PageRank que llevemos a cabo a partir de ahora, no se verán reflejadas en la barra de Google hasta septiembre.

Esto no quiere decir que antes de septiembre, nuestras acciones no sirvan para nada. Nada más lejos de la realidad. Recordemos que Google trabaja con un PageRank a tiempo real.

¿Cómo conocer el PageRank en tiempo real?

El PageRank exacto y con valor numérico, no lo podemos saber en tiempo real, pero sí podemos conocer una aproximación al PageRank real, aunque es en base 4 en lugar de en base 10 y con valores relativos.

Para conocer nuestro PageRank real en base 4, nos basta con registrarnos en Google como webmasters (Google ‘ Todo acerca de Google ‘ Información para webmasters ‘ Herramientas para webmasters), aquí podremos dar de alta nuestro site, Google nos pedirá una verificación del site (para asegurarse de que realmente somos el webmaster del site) y desde aquí, podremos ver el PageRank de nuestras páginas en tiempo real y en base 4. Google nos indica si las páginas tienen PageRank alto, medio, bajo o cero.

No es mucho lo que conseguimos con esto, pero al menos sabremos si tenemos PageRank asignado en todas las páginas, y podremos ir viendo si va aumentando el número de páginas de nuestra web que pasan de medio a alto, o de bajo a medio.

En mi barra de Google no veo el PageRank, ¿qué tengo que hacer?

Por defecto, la barra de Google no incluye esta información, pero desde las opciones de la barra podrás incluir PageRank, y de esta manera, mientras navegas por la red podrás conocer los PageRank de las páginas que visitas. Esto te ayudará a saber en qué páginas web deberías intentar incluir tus enlaces para que aumente tu PageRank.

Enlaces de interés:

¿Cómo puedo mejorar el PageRank de mi página web?:
http://www.geamarketing.com/posicionamiento/mas_pagerank.php

Curso Online gratuito de Posicionamiento en Buscadores:
http://www.geamarketing.com/posicionamiento_buscadores.php

¿Cómo se indexa el https?

La indexación del https es uno de esos misterios que hace la vida de los SEO más interesante. Si bien sabemos que es posible indexarlo en la mayor parte de los buscadores, casi nadie sabe cómo conseguirlo en el mínimo tiempo posible.

¿Qué es el https?

El https es la versión segura del protocolo http. La diferencia entre uno y el otro es que el primero transmite los datos cifrados, y el segundo los transmite sin cifrar.

El sistema https utiliza un cifrado basado en las Secure Socket Layers (ssl) para enviar la información.

La decodificación de la información depende del servidor remoto y del navegador utilizado por el usuario.

Es utilizado principalmente por entidades bancarias, tiendas en línea, y cualquier tipo de servicio que requiera el envío de datos personales o contraseñas.

¿Cómo funciona el https?

Contrariamente a lo que piensa mucha gente, el https no impide el acceso a la información, sólo la encripta cuando la transmite. De ahí que el contenido de una página web que utiliza el protocolo https pueda ser leído por las arañas de los buscadores. Lo que no puede ser leído es el contenido que se envía desde esa página web a su servidor, por ejemplo, el login y la contraseña de acceso a una zona privada de la página web.

El puerto estándar para este protocolo es el 443.

¿Cómo sabemos que realmente se indexa el https?

Google indexa https desde inicios del 2002 y progresivamente, el resto de buscadores han ido adaptando su tecnología para indexar también el https.

El último buscador en hacerlo ha sido MSN, que lo consiguió en junio 2006.

Si buscamos “https://www.” o bien inurl:https en los principales buscadores, encontraremos páginas https indexadas en ellos.

¿Cómo podemos indexar nuestro https?

En principio, de forma natural podemos indexar nuestras páginas en https, pero como este protocolo transmite la información de forma mucho más lenta, algunas veces las arañas no consiguen descargar las páginas en el tiempo que tienen establecido y se van sin indexarlo. Este es el principal problema con el que nos podemos encontrar. Lo resolveremos intentando disminuir el tiempo de descarga de estas páginas.

Cómo podemos acelerar la indexación del https

Existen dos técnicas:

  1. Google Sitemap: Incluir en nuestro sitemap las páginas https (nos referimos al google sitemap, no al sitemap para humanos), y darlo de alta en sitemaps de google.
  2. Guerrilla: repartir por todo Internet enlaces que vayan a nuestras páginas https, y conseguir de esta forma que las arañas que están indexando las páginas donde tengamos los enlaces, entren también en la parte https de nuestra web.

Cómo podemos hacer que no se indexe nuestro https

No es tan fácil cómo parece. No nos sirve incluir las páginas https en nuestro robots.txt. Cada puerto necesita su propio robots.txt, así que deberemos crear un robot.txt para nuestras páginas http y otro para nuestras páginas https. O sea, deberemos tener también una página llamada

https://www.nombredelapagina.com/robots.txt

Si necesitas ayuda para indexar o desindexar tus páginas https, no dudes en contactarnos. Estaremos encatados de asistirte.

Información complementaria:

Blog de MSN acerca de indexación – Artículo donde explican que MSN empieza a indexar https
http://blogs.msdn.com/livesearch/archive/2006/06/28/649980.aspx

Información de Google acerca de cómo no indexar https:
http://www.google.es/support/webmasters/bin/answer.py?answer=35302

Más información sobre sitemaps de google:
SiteMaps de Google
http://www.geamarketing.com/articulos/Descubre_indexacion_futuro_Google_SiteMap.php

Curso online, gratuito, de posicionamiento en buscadores: Curso de posicionamiento en buscadores
http://www.geamarketing.com/posicionamiento_buscadores.php