20 Mar

Tres herramientas clave para el éxito de una librería online

El de las librerías es un sector de actividad muy competitivo y regulado. Las editoriales marcan el precio de venta y la legislación fija un descuento máximo del 5% para los libros nuevos. Hay dos fechas en las que ese descuento puede superar ese margen, pero con un límite máximo del 10%: el día del libro (23 de abril) y las ferias del libro de las localidades y comunidades autónomas. Sólo se pueden hacer saldos cuando el libro esté descatalogado y para eso tienen que haber pasado 2 años de su fecha de edición. Ese es todo el margen que tienen los libreros para jugar con el precio que, como todos sabemos, es el mayor decisor.

Al descuento ordinario del 5% y del extraordinario del 10% las librerías online pueden añadir el regalo de los gastos de envío cuando el importe total de la compra supera una determinada cantidad.

Además el libro tiene un handicap y es que en principio nadie compra un libro que no necesite o que no quiera leer. Pero ese handicap se convierte también en su mayor ventaja si el librero, como en el judo, aprovecha la fuerza del contrario. Y es que la persona que quiere leer un libro tiene claras al menos una de estas 5 cosas:

  • El título del libro
  • El nombre del autor
  • La editorial que publica el libro
  • El ISBN
  • El género (temática), idioma y la fecha de publicación (novelas españolas publicadas en 2012)

Estos 5 elementos constituyen la mayor fuerza de la librería. Si sabe dirigir la fuerza de búsqueda a su catálogo se convertirán en los elementos clave de su éxito. Las librerías online tienen 3 herramientas para poder explotar al máximo la intención de compra del cliente potencial:

  1. Buscador > Motor interno de búsqueda > un buscador simple (caja de búsqueda) y potente (búsqueda avanzada con filtros por ISBN, nombre del autor, apellido del autor, nombre de los personajes, título de la obra, editorial, etc. que ofrezca SIEMPRE resultados ordenados por relevancia. Si el buscador no encuentra resultados, debe proponer sugerencias (did you mean?, similares, del mismo autor, de la misma temática, de la misma editorial).
  2. Base de datos > Para poder configurar correctamente un buscador es necesario tener antes muy bien estructurada la base de datos de productos. Cada ficha de producto con su categoria, descriptores y atributos más característicos.
  3. Motor de recomendaciones (cross selling, up selling, libros relacionados por temática, género, autor) > ahora cualquier comercio online puede acceder a recomendadores muy parecidos a los que desde hace años utiliza Amazon con un coste infinitamente más reducido. Los motores de recomendaciones se retroalimentan (son sistemas inteligentes) con la experiencia que el propio motor adquiere sobre los visitantes y compradores de la tienda.

Los sistemas de recomendaciones se basan en categorías y atributos de artículos muy precisos y en la definición de perfiles de usuario (targets digitales, arquetipos) para cada uno de los cuales se crean una reglas de negocio (categorías y productos de su interés), que se someten a test constantemente y que permiten ser mejoradas a través de la analítica web. Con estos sistemas podemos conseguir incrementos del 20% en los ratios de conversión.

Entre los principales proveedores de este tipo de herramientas se encuentran:

  • Brainsins.com/es > desde 89€ hasta 699€/ mes
  • Blueknow.com > 89€, 219€, 499€ y 999€/ mes
  • Strands.com > http://recommender.strands.com >149$, 349$, 749$ y 1.999$/ mes

Además de estas herramientas una librería online debería contar con un sistema que garantizase la eficacia de todos los procesos de negocio.

  1. CRM, gestión de clientes (gestion de la base de datos de clientes, flitrado de segmentos)
  2. Herramientas de marketing (email, cupones, cross y up selling, etc).
  3. Certificado de seguridad (SSL)
  4. Integración con los sistemas de gestión
  • Contabilidad
  • ERP (Enterprise Resource Planning), gestión de productos, proveedores y ventas
  • Gestión de almacén

Librerías online

Obviamente este panorama que pintamos aquí está cambiando a pasos agigantados. En el terreno online las editoriales han invadido el espacio de las distribuidoras y también de las librerías.

El libro en formato digital permite que la editorial controle todo el proceso desde la edición hasta la venta. Las editoriales se han agrupado para crear plataformas de distribución electrónica de los libros digitales (p.e. Libranda.com) que asumen los costes de edición del libro digital (know-how, tecnología) y ahora son las editoriales quienes proponen los puntos de venta (tiendas online e incluso tiendas físicas).

De momento el libro digital sigue siendo más caro que el libro en soporte papel (curioso, ¿verdad?). También de momento la población parece que está más familiarizada con los libros convencionales, aunque basta echar un vistazo en el vagón del metro para comprobar que ya son mayoría las personas con lector digital. El último gran escollo parece que es la propia naturaleza del libro, los libros relacionados con las artes plásticas (fotografía, arquitectura, moda, decoración, pintura, etc ) tienen un gran peso de visual que quizá no sea susceptible de trasladar a un lector digital (la editorial Gustavo Gili ya ha dado el primer paso en ese sentido).

29 Ene

Diferencias entre directorio y buscador

¿Cuál es la diferencia entre un buscador y un directorio? El buscador usa sistemas automáticos (robot, bot; araña, spider; rastreador, crawler) tanto para recorrer la red, realizar búsquedas e indexar las páginas en su base de datos, mientras que los directorios usan personas para calificar cada página a indexar, y listan los websites ordenados por categorías y sub-categorías. Ejemplos de buscadores son Google, Bing, Lycos… Un ejemplo de directorio es DMOZ, que es el acrónimo de Directory MOZilla. En la imagen la página de confirmación después de enviar una URL.

Directory MOZilla, página de confirmación de envío de URL

Leer más

29 Ene

Ingeniería inversa

Cada buscador utiliza un algoritmo de indexación diferente que es permanentemente actualizado y mejorado. Estos algoritmos marcan la verdadera diferencia entre buscadores y por tanto son considerados secretos industriales por las empresas que los crean. Los algoritmos son el arma más competitiva que tiene un buscador y por eso mismo apenas hay información al respecto.

Para establecer dentro de unos márgenes de confianza aceptables los procedimientos seguidos por los motores de búsqueda para indexar las páginas que visitan es necesario recurrir a la ingeniería inversa. La ingeniería inversa es la única forma de determinar qué valora cada motor de búsqueda: títulos, número de veces que las palabras clave aparecen en el texto, meta tags, textos alternativos a las imágenes, popularidad de los enlaces, etc.

La ingeniería inversa la realizan expertos a través de ejercicios conocidos como regresiones para una serie concreta de términos de búsqueda. Entre los métodos seguidos por la ingeniería inversa se encuentran;

  • Análisis matemáticos
  • Trabajos estadísticos/ lexométricos  sobre el código de las páginas mejor situadas para determinadas criterios de búsqueda
  • Creación de páginas de prueba o dominios enteros para determinar el comportamiento del motor de búsqueda
  • Creación de robots propios para el análisis de resultados

La ingeniería inversa facilita la información necesaria para optimizar la programación y el diseño de una página de entrada o de un website completo para su indexación en buscadores.

Cuanto más competitivo es internet  más difícil es conseguir una buena posición en áreas en las cuales hay muchos sitios rivalizando por la atención de los usuarios.

(Via Wikipedia) El objetivo de la ingeniería inversa es obtener información técnica a partir de un producto accesible al público, con el fin de determinar de qué está hecho, qué lo hace funcionar y cómo fue fabricado. El resultado de la ingeniería inversa es un mayor entendimiento de su funcionamiento. Los productos más comunes que son sometidos a la ingeniería inversa son los programas de ordenador y los componentes electrónicos.

La ingeniería inversa avanza en sentido opuesto a las tareas habituales de ingeniería, que consisten en utilizar datos técnicos para elaborar un producto determinado. En general si el producto u otro material que fue sometido a la ingeniería inversa fue obtenido en forma apropiada, entonces el proceso es legítimo y legal.

La ingeniería inversa es un método de resolución. Aplicar ingeniería inversa a algo supone profundizar en el estudio de su funcionamiento, hasta el punto de que podemos llegar a entender, modificar, y mejorar dicho modo de funcionamiento.

29 Ene

Funcionamiento de un buscador

¡Quien mejor que Matt Cutts para explicar el funcionamiento de Google!

(Via Mail x Mail) Los buscadores son ahora índices automáticos de páginas web. Su funcionamiento responde en todos los casos al mismo patrón.

1.- Una araña visita la página web
2.- La araña lee el contenido de la página web
3.- La araña lleva toda la información a una central, donde un sistema la procesa y la almacena
4.- El sistema crea un índice con las palabras que se utilizan la web y las ordena por relevancia
5.- El sistema intenta descubrir la importancia y calidad de la página (comprueba el número de enlaces a la web y la importancia y calidad de quien te recomienda)
6.- Cuando alguien realiza una búsqueda, el sistema muestra todas las webs que contienen la palabra o frase buscada. Y muestra los resultados en función de un algoritmo de ordenación que tiene en cuenta la importancia de la página web y la importancia del término buscado, en esa página web.

Las diferencias entre buscadores se encuentran en su lógica y en la calidad de su programación.

29 Ene

El algoritmo de posicionamiento

En el momento en el que el motor de búsqueda almacena la web también determina el ranking o posición que ocupará esa web en una página de resultados para determinada palabra clave (una misma página puede obtener muy distintas posiciones en la página de resultados del buscador en función de la keyword introducida en la caja de búsqueda).

Para determinar ese ranking los motores de búsqueda utilizan algoritmos de posicionamiento. Y es precisamente en los algoritmos de posicionamiento donde se encuentran las mayores diferencias entre los distintos buscadores.

Un algoritmo es una fórmula matemática que resuelve un problema. Aplicado a los buscadores, los algoritmos se utilizan para una vez dado un valor numérico a ciertos factores (como la importancia de una página, las veces que se cita una palabra, dónde está situada esa palabra en el contexto de la página, etc.), hallar un resultado final numérico, que sirva para ordenar la página web. Los algoritmos de posicionamiento son los encargados de clasificar los resultados de las búsquedas en un orden.

Cada buscador tiene su propio algoritmo de ordenación (Google tiene PageRank; Yahoo! utiliza WebRank). Todos los algoritmos son secretos, con tiempo y paciencia, se pueden inducir qué factores intervienen en él y en qué orden de importancia lo hacen, pero jamás se puede llegar a conocer la fórmula. No sólo por el número de variables (más de 500), sino porque el orden y peso de cada una de estas variables se cambia continuamente por el buscador, y es modificado tanto para poder ofrecer un mejor servicio como para evitar las maniobras de ingeniería inversa de los websites que quieren incrementar el ranking de sus páginas.

Los primeros motores (Yahoo!, AltaVista, HotBot, Lycos) organizaban la información contando la cantidad de ocurrencias en una página web de una determinada palabra (el término de búsqueda).

En 1998 los estudiantes de la Universidad de Standford en California (EE.UU.) Sergey Brin y Lawrence Page (Larry) presentaban un artículo titulado «The Anatomy of a Large-Scale Hypertextual Web Search Engine» en el que se definía una nueva forma de indexar páginas web valorando su importancia en función del número de hipervínculos que se dirigían a la misma (la apuntaban) desde otros websites.

Este artículo se basaba en la premisa comúnmente aceptada en el mundo académico de que la importancia de un artículo de investigación puede juzgarse según el número de artículos diferentes que lo citan.

El resultado ha sido una clasificación que desde el primer momento ha demostrado su eficacia para valorar la importancia de una página web. Brin y Page bautizaron a su primer buscador como BackRub para subrayar el hecho de que clasificaba las páginas en función del número de enlaces (backlinks) que apuntan a ellas.

29 Ene

Anatomía de un buscador

 

@Algo Ramblings

Internet tiene una naturaleza caótica. Las páginas web son dinámicas, es decir, pueden modificarse, crearse y destruirse sin previo aviso. Además, están escritas en diferentes idiomas. Y para acabar de complicar la cosa, la naturaleza del contenido de las páginas es muy variada, pueden contener texto, gráficos, imágenes, sonido, vídeo, programas, etc.

En cualquier página web pueden concurrir infinidad de situaciones, desde que sea una página aislada, hasta que sea una minúscula parte de una web y esté relacionada con millones de páginas más.

Los buscadores surgieron desde el primer momento como herramientas que intentaron poner un poco de orden en medio de este caos y facilitar la localización de la información. Con el tiempo estas herramientas se han convertido en algo imprescindible y hoy nadie puede imaginar internet sin los buscadores.

Para catalogar un libro se sigue una clasificación de materias aceptada universalmente que permite ubicar un libro según su tema. En internet lo más parecido son las categorías del proyecto DMOZ y los directorios a los que recurren otros buscadores. Pero los directorios son incompletos porque la inclusión de websites es totalmente voluntaria.

La estructura de la información en internet no facilita su organización. Los buscadores copian los datos de internet mediante programas que visitan las páginas (robots) y los transforman volcándolos en bases de datos mediante sistemas de indexación, compresión y organización que garantizan una estructura de datos mucho más favorable para la búsqueda.

Los buscadores web son motores de búsqueda. Un motor de búsqueda consta de al menos 3 subsistemas:

RASTREADOR/ RECOLECTOR

Es conocido también como  spider, robot, bot, crawler. El recolector es un programa automatizado similar a un navegador web que visita las páginas de un sitio y las descarga incorporándolas a una colección

Este tipo especial de navegadores sólo reconocen texto, no pueden ver imágenes, gráficos, vídeos, animaciones en flash, etc. También tienen dificultades para superar la programación de partes concretas de la página como el menú de navegación, o determinadas funcionalidades (applets). Estos recolectores tiene también dificultades para buscar en las páginas generadas dinámicamente mediante ASP, PHP, Java, etc

INDEXADOR

Un indexador es otro programa automatizado que analiza la página descargada y extrae toda la información relevante que está introducida en el código y convierte la colección en una estructura más manejable y pequeña, llamada índice

El índice es una representación compacta del contenido total de una página. ¿Qué información relevante extrae el indexador del código HTML?

  • Article heading. Los encabezados de la página, que están identificados con las etiquetas <h1> a <h6> definen y estructuran el contenido. El encabezado <h1> es el título que resume el contenido de esa página concreta. Para un buscador es el elemento más importante de la página y no tiene por qué guardar correspondencia con el <title>.
  • Page title. Es el título de la página que se muestra en la página de resultados del buscador (SERP, Search Engine Results Page), en la barra de título del navegador dei usuario y si se guarda como marcador en el título del mismo. Este título debería tener una extensión máxima de 70 caracteres.
  • Page URL. Es la dirección en internet que tiene esa página concreta (URL, Uniform Resources Locator).
  • Content. El contenido de la página en formato texto. El buscador tiene en cuenta varias características del texto como: la extensión (recuento total de palabras); la presencia de determinadas palabras clave (keywords) que definen la temática del contenido; el orden que ocupan las palabras clave dentro de la página (prominencia o relevancia); el número de veces que se repite esa palabra clave (densidad) a lo largo del contenido; el estilo que adoptan (negrita, cursiva, subrayada, tachada)
  • Meta data. Los metadatos están embebidos en el código HTML de la página y no se muestran al usuario en el navegador. Hay dos metadatos fundamentales: meta data description y meta data keywords. Meta data description es la etiqueta donde se guarda el resumen del contenido de la página. Los  buscadores incluyen esta meta descripción en cada entrada (debajo del título) a la que llaman snippet y que suele tener una extensión aproximada de 156 caracteres. Meta data keywords son las palabras clave presentes en el contenido de esa página, sirven para orientar al buscador y dar mayor peso (densidad de palabras clave. Además del protocolo Dublin Core existen los rich snippets (fragmentos enriquecidos) que es el marcado estructurado del HTML para destacar y definir el contenido de una web de forma estandariazada. Los fragmentos enriquecidos son utilizados por principalmente por buscadores y agregadores y constituyen una de las líneas de avance de la web semantica.

BUSCADOR

Realmente es la base de datos en la que el usuario recupera ciertas páginas del índice.

Veamos con más detalle los sistemas de indexación, compresión y organización.

¿Qué es la indexación? Básicamente, el proceso es el mismo que cuando consultamos el índice de un libro. Buscamos en el índice y obtenemos un número de página, luego vamos directamente a esa página sin tener que recorrer todas las páginas del libro. Por ejemplo, si tenemos un sitio web, se puede crear un índice con todas las palabras que aparecen en el sitio web, y con los nombres de las páginas en las que aparecen; así, dada una palabra podremos ir rápidamente a las páginas en las que aparece. El único problema es construir y mantener actualizado el índice.

¿Qué es la compresión? Si estamos buscando texto, las imágenes no nos interesan, tampoco el formato del texto, todo esto se puede eliminar para realizar las búsquedas más rápidas. Además, existen técnicas complejas para lograr que las páginas ocupen menos espacio. En el momento en el que la información se almacena es cuando el motor de búsqueda determina el ranking o las posiciones en las que van a aparecer los resultados a partir de una palabra concreta. Es en este punto donde se encuentran las mayores diferencias entre los motores de búsqueda. En función de sus algoritmos otorgan relevancias diferentes a una misma página.

¿Qué es la organización? Un robot rellena una base de datos primaria con el código de las páginas que visita. El motor de búsqueda consulta en esa base de datos cuando nosotros le preguntamos y ofrece resultados mediante un complicado algoritmo que trata de emular de forma objetiva lo que los humanos hacemos de un modo instintivo: clasificar una página por temas, origen, etc. y listarlas jerárquicamente de acuerdo con su mayor o menor relación con el término buscado por el usuario.

En el proceso de búsqueda se realizan varias operaciones que casi siempre implican consultar un índice de páginas, que es una representación compacta del contenido de éstas. El buscador obtiene una lista de documentos, luego los ordena de mayor a menor importancia (esto se llama ranking), los consolida (ej.: eliminar duplicados, agrupar los de un mismo sitio, etc.) y los presenta al usuario.