27 Sep

Hashtags de Twitter, Facebook y Google+

El buscador Google indexará los hashtags de su red social Google+. Se suma a la iniciativa de Twitter, que luego siguió Facebook. La diferencia es que las conversaciones de Google+ tendrán en principio mucha mayor trascendencia pues podrán aparecer en los resultados de búsqueda.

#hashtag_el_lunes

29 Abr

Redirección web, ¿qué es y cómo se hace?

El propietario de una página web quiere trasladar las visitas entrantes a otra página (vinculada o no con la anterior). Para ello se sirve de los códigos de estado del protocolo HTTP que establecen la relación cliente-servidor. Es decir, las peticiones que hace tu navegador y las páginas que obtiene del servidor.

El código HTTP de las redirecciones es 3xx (300 Multiple choices, 301 Moved permanently, 302 Found, 303 See other, 304 Not modified, 305 Use proxy y 307 Temporary redirect) y significa que el servidor tiene que realizar una acción adicional para completar la petición del navegador.

Redirección de un dominio. ¿Cómo se hace?

La redirección más habitual es la redirección de un dominio. El objetivo es que cuando un usuario llegue a por ejemplo nombredominio.com su navegador sea redirigido a la nueva dirección (URL) que has especificado previamente en el panel de control (por ejemplo nombredominio_2.com). La redirección hay que escribirla siempre antes en el panel del control del parking del dominio y podemos hacerlo de tres formas distintas:

  1. Redirección de dominio tipo frame, corresponde al código de estado HTTP 302 Found (encontrado): se mantendrá nombredominio.com en la barra del navegador del cliente. Se puede especificar la metainformación de la página de destino: título, descripción y keywords. Muchas personas lo utilizan como redirección temporal, pero realmente equivale a un código 200 (OK, respuesta estándar a peticiones correctas) pero redirigido con lo cual genera contenidos duplicados y problemas de penalización.
  2. Redirección de dominio tipo URL, corresponde al código de estado HTTP 307, Temporary redirect, (redirigido temporalmente): el usuario verá en el navegador la dirección de la página de destino (la que has especificado en el campo URL del panel de control
  3. Redirección de dominio tipo URL 301, corresponde al código de estado HTTP 301, Moved Permanently (traslado permanente). Los buscadores considerarán definitiva la URL nueva que facilitas y reindexarán el contenido. El usuario verá en el navegador la dirección de la página de destino

Redirección de una página web. 

A medida que pasa el tiempo nuestros negocios cambian. Aparecen nuevos productos y/o servicios que sustituyen a otros que desaparecen. Los productos y/o servicios descatalogados han sido indexados por los buscadores o se guardan en los favoritos (marcadores) del navegador del usuario. Si nosotros eliminamos la página de nuestra web, el usuario encontrará un error 404 (es decir, la respuesta del servidor será no encuentro ese archivo).

Para evitar estas páginas de error, debemos hacer dos cosas

  1. Comunicar al buscador mediante un sitemap en XML que esa página ha dejado de existir. Es decir el plano de la web que muestra la estructura de navegación de la misma, las secciones, subsecciones y páginas que forman  cada una de ellas. Este archivo en XML lo leen los robots de los buscadores y se les puede facilitar a través de las herramientas para webmasters.
  2. Hacer una redirección 301 en nuestra web de la antigua URL a la nueva  (p.e. de dominio.com/productos/mecheros-de-yesca.htm a dominio.com/productos/mecheros-turbo.html). De esta forma nos aseguramos que las visitas llegarán a la nueva página.

¿Por qué no es bueno abusar de las redirecciones 301?

Las redirecciones masivas penalizan porque el buscador podría considerar que se trata un engaño

  • El webmaster puede redirigir al usuario donde quiera. Posicionar en buscadores una página y ofrecer otros contenidos engañando al buscador. El buscador deja de tener control sobre los contenidos y pierde su fiabilidad.
  • Un webmaster podría crear miles de páginas cuya única misión fuese redirigir y crear así un gran decorado dando la apariencia a los buscadores de ser una web gigantesca con tan sólo 4 páginas.
23 Mar

El SEO según VolksWagen

SEA son las iniciales de Search Engine Advertising. También son las iniciales de SEA Team, una agencia de Londres que el pasado mes de febrero se le ha ocurrido la idea de posicionar 5 imágenes en Google Images para conseguir este anuncio.

SEM = SEO + SEA (PPC + Local Search)
Search Engine Marketing = Search Engine Optimization + Search Engine Advertising (Pay Per Clic + Directorios locales)

El marketing de buscadores es la la suma de la optimización y la publicidad (anuncios de pago por clic y directorios locales)

@Via Ads of the World
Advertising Agency: SEA Team, London, UK
Digital creatives: Guus ter Beek, Pim van Bommel, Alwin Lanting
Production: Qreativ
Published: February 2013

09 Feb

Número de caracteres en título, descripción y URL

Online Marketing & eCommerce

Snippet = título + descripción + URL

Para cada consulta que hacemos a un buscador la página de resultados (SERP, Search Engine Results Page) suele mostrar 10 resultados, compuesto cada uno de ellos de 3 elementos clave (snippet) que han sido indexados previamente por el robot.

  • Título (en azul)
  • Dirección de la página web (en verde)
  • Descripción (en negro)

La longitud en caracteres de cada uno de estos elementos varía de un buscador a otro. Hemos recurrido a una de las mejores webs de optimización de buscadores (SEO, Search Engine Optimization) para establecer unos parámetros adecuados.

Número de caracteres en título, meta descripción y URL

Ordenamos en función de la importancia que tienen para el SEO

  1. Meta Title (<title></title>). Este es el título de la entrada que se mostrará en la página de resultados (en Google se muestra en color azul). Según seoMOZ se recomienda no pasar de los 65 caracteres. Es lo primero que va a leer alguien sobre tu página.
  2. Meta Description (<meta name=”description” content=”texto descriptivo”/>). Son dos líneas de texto que acompañan a cada título, seoMoz recomienda no sobrepasar los 156 caracteres. La forma en la que redactes este texto puede influir en el número de clics que recibas.
  3. Dirección de la página web (URL, Uniform Resource Locator). Es la dirección en internet de la página web. Se recomienda no sobrepasar los 65 caracteres.
  4. Meta Keywords (<meta name=”keywords” content=”palabras clave separadas por coma”/>). Los grandes motores de búsqueda como Google ya no las utilizan, pero sí los pequeños buscadores. Nosotros recomendamos entre 8 y 10 palabras clave y un máximo de 255 caracteres (otros hablan de un máximo de 25 palabras y 500 caracteres)

Hay varias formas de contar caracteres:

  • Manual. Es importante contar los espacios entre palabras y los signos de puntuación
  • Microsoft Word. Seleccionamos el texto y en en el menú “Herramientas” la utilidad “Contar palabras.
  • Microsoft Excel. Es interesante que veas esta página 
  • Online. Hay varias páginas web que ofrecen esta utilidad. Busca “contador de palabras y caracteres” y elige la que más te guste.

Hay dos cosas muy importantes a la hora de colocar las palabras clave:

La prominencia, es decir, la posición que ocupa la palabra clave dentro de cada uno de estos factores (título, descripción, URL). Cuanto más al principio se sitúe la keyword más prominente será, mayor será su importancia (al igual que las personas presiden mesas, las keywords tienen prominencia)

Las stop words (palabras vacías). Son palabras muy comunes que no contienen información relevante para diferenciar un documento y los buscadores las obvian en sus índices porque producen “ruido” (no las necesitan para representar de forma matemática un documento). Cada idioma tiene sus propias stop words, en español son las:

  • Preposiciones,
  • Conjunciones,
  • Verbos copulativos (ser, estar, parecer) en cualquiera de sus tiempos
  • Las palabras más comunes (estadísticamente hablando)
22 Oct

Keyword research, el método para conseguir tráfico cualificado

El principal objetivo de una campaña en buscadores es atraer tráfico cualificado hacia nuestra web, ya sea de forma inmediata (PPC), como a medio y largo plazo (SEO). La selección de palabras clave, keyword research, constituye el núcleo de una campaña de marketing de buscadores tanto para la optimización (SEO, Search Engine Optimization), como para la publicidad (SEA, Search Engine Advertising). También resulta imprescindible para realizar o redefinir el posicionamiento estratégico de nuestra presencia online.

El tráfico que seamos capaces de captar para nuestro website viene determinado por tres factores: popularidad, cuota de tráfico y competencia. Muchas veces no podemos determinar la cuota de tráfico porque aún no estamos indexados, y por ello la popularidad y la competencia resultan factores clave.

A) La popularidad de la palabra clave, es decir el número de búsquedas mensuales que se realizan de esa determinada cadena de texto. Para determinarlo podemos utilizar gratis la Herramienta de palabras clave de Google AdWords (Keywords Tool). En función del tráfico que aportan podemos determinar 3 rangos de palabras clave:

  • Head terms > 1.000 búsquedas mensuales
  • Mid terms > 100 < 1.000 búsquedas mensuales
  • Long tail terms < 100 búsquedas mensuales

La popularidad no es un valor exacto, sino que está comprendida en una horquilla de valores. El valor mínimo lo representan las búsquedas de corcondancia exacta, y el valor máximo lo definen las búsquedas de concordancia amplia.

La tendencia de búsqueda de las palabras clave nos proporciona una visión sobre los términos en los que conviene centrar el esfuerzo. Google Trends y Google Insights for Search (compara términos y filtra los datos por fechas y regiones).

B) La cuota de tráfico que nuestra página es capaz de captar. Esta cuota de tráfico se define a su vez por tres factores:

  • Ranking de nuestra página en la SERP del buscador frente a la competencia. Entre otras herramientas podemos utilizar para determinarlo el plugin de Firefox Rank Checker 
  • Autoridad de la página, backlinks propios versus la competencia. Una de las herramientas más precisas es Open Site Explorer de SEOmoz.
  • Relevancia/ calidad de la página, definido por la tasa de rebote (usuarios que abandonan nuestra página sin realizar ninguna interacción). La relevancia es un sinónimo de calidad para un motor de búsqueda. Cuanto mayor sea la calidad de nuestra página web para el usuario menor será la tasa de rebote y mayor el tiempo que usuario invierte en nuestra página y en nuestro website. La tasa de rebote se determina con una herramienta interna de medición (por ejemplo Google Analytics), no podemos conocer la tasa de rebote de la competencia.

Hay una relación directa entre los clics que recibe una página y la posición que ésta ocupa en la SERP (Search Engine Results Page). Cuanto más alta sea la posición, mayor será el número de clics que reciba. El número de clics será más bajo si ocupamos posiciones inferiores. Nuestro ranking en la página de resultados viene determinado tanto por la autoridad de nuestra página (links entrantes), como por su relevancia (rebote). Incrementando el número de links entrantes y reduciendo la tasa de rebote podemos conseguir un ranking mayor.

C) Si no tenemos cuota de búsqueda, para elegir una keyword tenemos que evaluar entonces la competencia que exista en el uso de esa palabra clave, es decir el número de resultados que para esa palabra clave ofrezcan los buscadores. En Google podemos utilizar tres operadores para determinar el número de resultados que encontramos para esa keyword

  • allintitle: > resultados con la keyword en el título
  • allinurl: > resultados con la keyword en la URL
  • allinanchor: > resultados con la keyword en anchor text

A partir de estos datos podemos establecer el KEI, Keyword Efectiveness Index, la relación entre número de búsquedas mensuales y el número de resultados que ofrecen los buscadores. En este mismo blog hemos dedicado un post al indicador definido por Sumantra Roy.

La conversión que nos proporcione cada una de las palabras clave seleccionadas depende sin embargo de muchos más factores (propuesta de valor, usabilidad, capacidad de persuasión, diseño, credibilidad, etc). Pero eso ya es harina de otro costal y se sale del objetivo principal de este artículo.

11 Sep

El nombre de los robots de Google

El nombre de los robots de Google

Google utiliza varios robots (9) que recorren la red evaluando y clasificando las páginas que visitan. Google elabora su índice a partir de la información que recopilan estos robots. Podemos permitir o denegar el acceso total o parcial (excluir directorios, páginas y archivos) a nuestro site de estos robots mediante el archivo robots.txt y mediante las metaetiquetas robots.

El archivo robots.txt se encuentra en la raíz de nuestra web y es lo primero que consultan los robots para saber qué pueden o no recorrer e indexar. Hay tres sentencias básicas:

  • User-agent: * (se refiere al nombre del crawler, el asterisco representa a todos los robots)
  • Allow: / directorios, páginas o archivos a los que damos acceso a los robots
  • Disallow: / los directorios, páginas o archivos que impedimos sean rastreados por el robot.

Las metaetiquetas robots <meta name=”robots” content=”…, …” /> nos permiten dar instrucciones muy concretas a los crawlers de forma genérica (noindex, nofollow, nosnippet, noodp, noarchive, unavailable_after:[date], noimageindex) e incluso podemos personalizarla sustituyendo el término “robots” por el nombre del bot que deseamos no indexe nuestros contenidos (<meta name= Googlebot  content=”…, …” />

  • Googlebot: rastrea páginas web para indexarlas. No sólo extrae información del HTML, sino además de archivos PDF, DOC, XLS, PPT, etc. La frecuencia de rastreo es directamente proporcional a la importancia (PageRank) que tenga la web
  • Feedfetcher: es un user-agent asociado a Googlebot que se encarga de registrar el acceso a los feeds RSS o Atom que los usuarios añaden a sus páginas de iGoogle o Google Reader. Este es el único robot que como es activado de forma manual por un humano no obedece las indicaciones del archivo robots.txt
  • Googlebot News: también es conocido como “freshbot” rastrea páginas de noticias (CNN, Reuters, BBC, periódicos diarios, etc ), o páginas que Google considera que actualizan con frecuencia sus contenidos
  • Googlebot-Image: rastrea páginas para el índice de imágenes
  • Googlebot Video: rastrea páginas buscando vídeos
  • Googlebot-Mobile: rastrea páginas para el índice móvil. Utiliza dos user-agent (crawlers o rastreadores) uno para las páginas destinadas a móviles tradicionales (utilizan navegadores muy limitados para poder visualizar páginas) y otro user-agent para las páginas destinadas a teléfonos inteligentes (smartphones) con navegadores más completos y similares a los navegadores de ordenadores de escritorio. Si la página para móviles redirige a una página específica para smartphone, Google indexa esta URL final para evitar la latencia (entre 0,5 y 1 segundo) de demora que causa la redirección. Es decir, identifica el modelo del móvil y navegador que hace la consulta para ofrecerle en la página de resultados las URL’s optimizadas.
  • Google Mobile AdSense: rastrea las páginas móviles para el contenido de AdSense
  • Mediapartners-Google: rastrea páginas para determinar el contenido de AdSense.
  • Adsbot-Google: sólo rastrea las landing pages utilizadas en las campañas de Adwords para  para evaluar la calidad de la página de destino en función de 3 criterios: “contenido relevante y original, transparencia y facilidad de navegación”.
23 Ago

Diez criterios para la selección de palabras clave

Criterios seleccion palabras claveExisten varios criterios básicos a la hora de seleccionar las palabras clave en nuestra estrategia de marketing de buscadores. La importancia de estos criterios, el orden en el que los apliquemos, varía en función de las características de la web para la que estemos desarrollando el keyword research.

  1. Selección de palabras clave en función de su coste de utilización. ¿Cuál es el CPM y el CPC de las palabras que estamos eligiendo? ¿Qué volumen del total de búsquedas estamos captando con nuestro presupuesto? ¿Durante cuánto tiempo podemos utilizar esas palabras clave?
  2. Selección de palabras clave en función de su relevancia. O lo que es lo mismo, su adecuación, su especificidad. ¿Son pertinentes las palabras clave que hemos elegido? ¿Representan adecuadamente nuestros productos o servicios y su calidad?
  3. Selección de palabras clave por la popularidad de los keywords, el volumen de tráfico que pueden generar. Aún significando lo mismo no todas las palabras clave generan el mismo nivel de tráfico. Por ejemplo, “perro” y “can” significan lo mismo, pero la segunda es mucho menos popular.
  4. Selección de palabras clave por la tendencia en el uso de las mismas (alza o baja). ¿Las palabras que hemos elegido las sigue utilizado nuestro target o son ya viejunas? ¿Por qué palabra conviene más posicionarse “trekking” o “senderismo”?
  5. Selección de palabras clave en función de sus límites legales (marcas registradas que no podemos usar), estacionales, culturales,  geográficos, etc. Palabras que se emplean en determinadas temporadas como por ejemplo “rebajas de verano”, “alpargatas”, “asistencia en viaje” o en ubicaciones muy concretas como por ejemplo “cajuela”, “pernil”, “pullovera”.
  6. Selección de palabras clave en función de la competencia de uso. ¿Cuántos resultados ofrecen los buscadores para la misma palabra? ¿Cuántas páginas incluyen en su título o en su URL esa keyword? ¿Cuántos links utilizan esa palabra en el anchor text?
  7. Selección de palabras clave en función del tiempo necesario para que aporten tráfico. ¿Cuánto tiempo tardaremos en conseguir determinada posición en la SERP de un buscador que nos genere el volumen de tráfico que buscamos?
  8. Selección de palabras clave por la afinidad del tráfico que generan. A nuestra selección de keywords le podemos aplicar criterios sociodemográficos (edad, población, ingresos, nivel cultural) o de cualificación/ espertización (por ejemplo, no es lo mismo buscar “jamón serrano” que buscar jamón de jabugo, jamón de recebo, jamón de bellota, jamón ibérico, jamón de pata negra, jamón 5 jotas, jamón joselito, etc)
  9. Selección de palabras clave por su potencial para lograr conversiones. ¿El tráfico que hemos captado cumple con los objetivos de la web? ¿Hay más páginas vistas? ¿Pasan más tiempo en el site? ¿Se descargan más cosas? ¿Se registran más? ¿Hay más venta? ¿El ticket es mayor? ¿Hay más repeticiones de compra?
  10. Selección de palabras clave por el ROI, Return On Investment de las keywords. ¿Los resultados que hemos obtenido compensan los esfuerzos que hemos realizado y los costes asumidos? ¿Nuestro proyecto web sigue operando con suficiente margen?

Estos diez criterios de selección de palabras clave pueden resumirse en dos:

  • La capacidad de las keywords para generar tráfico cualificado
  • El potencial de las palabras clave para lograr conversiones