30 Ene

Google, la mayor agencia de publicidad del mundo

Sede central de Google

La sede central de Google en Mountain View, California, EE.UU.

En 1998 se creó Google. En 2000 AdWords, la herramienta para introducir publicidad junto con las búsquedas. Nueve años después, Google ingresó por ese concepto 21.000 millones de dólares, más que cualquier multinacional de la publicidad. Su peso crece proporcionalmente al número de internautas. De cada 100 dólares que entran en la caja de Google, 97 son por la publicidad.

De los 21.795 millones de dólares ingresados por Google en 2008, el 69% fueron con AdWords, anuncios insertados en los resultados del buscador. “La publicidad textual y relacional es las más efectiva en Internet. A parte de no alterar el orden de búsqueda, la publicidad en Google es menos invasiva y manipuladora que en otros buscadores”.

AdWords es tan perverso, o perfecto, que hay que anunciarse para que no se anuncien otros. Es el caso de NaranjasLola, que está en los tribunales.”¿Verdad que no es lógico que uno tenga que hacer publicidad para que no se anuncien otros en las búsquedas de mi propio nombre?”, se pregunta Federico Aparici, propietario de NaranjasLola.com. Él mismo se responde: “Lo hago para que no me quiten ningún clic. He llegado a pagar al mes más de 1.500 euros”.

Aparici fue pionero en vender naranjas por Internet. Tras su estela llegaron los competidores que no dudan en comprar la búsqueda para aprovechar el tirón de su marca. Introduciendo esta palabra en Google, el buscador ofrece anuncios de otros naranjeros. “Google debe ingresar alrededor de 10.000 euros mensuales aprovechándose del gancho de mi marca”, dice Aparici.

Home, una tienda digital especializada en productos descanso, han reunido un listado de 40.000 clientes en cinco años. Factura un millón de euros al mes, pero destina el 70% de su presupuesto a publicidad digital y, de esta cifra, el 60% es en Google. En algunas campañas han logrado que un 17% de los que ven su anuncio patrocinado pinchen.

Una agencia virtual frente a las ‘Big Six’

Con un tercio de empleados, Google cuadriplica los beneficios de Omnicom, el primer grupo de la publicidad, líder de las seis grandes del mundo, las llamadas Big Six. La diferencia de volumen y margen de beneficio es aún mayor si se advierte de que mientras los ingresos de Google se refieren exclusivamente a publicidad, en los de las Big Six entran también minutas por relaciones públicas, lavados de imagen y otros servicios.

El futuro aún favorece más a la agencia virtual, que crece menos que nunca, pero a un estratosférico 26%.

30 Ene

Somos lo que buscamos

Googlear es a buscar como Googled a encontrado

¿Te has preguntado qué puede hacer Google con toda la información que tiene sobre ti?
¿Venderla al peso?
¿Publicar tu biofotografia y mostrar con tus búsquedas quien eres realmente?
¿Eliminarte del sistema?

Ten cuidado porque el almacenamiento es cada vez más barato.

Y nosotros sólo somos lo que buscamos.

30 Ene

¿Cuánto gastan las grandes marcas en AdWords?

Página web de Adverstising Age

Captura de pantalla de la web que publicó el artículo original

Via Interactiva Digital. Advertising Age se ha hecho eco de una filtración que desvela los nombres de los anunciantes que más dinero han invertido en publicidad en Google en el pasado mes de junio. AT&T Mobility (8.08 millones de dólares), Amazon (5.85 millones), eBay (4.25 millones), BP (3.59 millones), Apollo Group (6.67 millones), Expedia (5.95 millones), Hotels.com (3.30 millones), JC Penney (2.46 millones), Living Social (2.29 millones) y ADT Security (2.19 millones) son algunas de las compañías que más han apostado por el buscador. Todas ellas son anunciantes habituales de Google, todas a excepción de BP que se ha estrenado este año invirtiendo una buena cantidad en AdWords con el fin de lavar su imagen tras el desastre del vertido de petróleo en el Golfo de México.

30 Ene

Twitter en Google

La mascota de Twitter sobre el logo de Google
La mascota de Twitter sobre el logo de Google

Google indexará también todos nuestros twits

Para encontrar lo que Google está indexando de nuestra cuenta de Twitter, basta con poner en el buscador:
site:twitter.com inurl:”UsuarioTwitter”

¿Qué indexa Google de Twitter? Primero el nombre del usuario, luego las listas y después todo lo que tuiteamos y retuiteamos… o sea, como un Gran Hermano, pero a lo bestia.

Hay rumores de que se avecina un Page Rank cuyo algoritmo tendría en cuenta la cantidad de retweets que recibimos en Twitter y tal vez la cantidad de listas en las que estamos y seguidores que tenemos.

Detrás está como siempre la publicidad. Twitter ha cerrado un acuerdo con Google para que los “Promoted Tweets” aparezcan en Google Realtime Search ocupando el lugar que Google Adwords ocupa en el buscador. De esta manera los tweets serán el primer resultado en cualquier búsqueda relacionada con la keyword. Los ingresos se reparten a partes iguales entre Google y Twitter con lo que la oferta para el anunciante no es: “paga para aparecer en los resultados de nuestro buscador” sino “paga para promover tu tweet… y aparecerás en todos los resultados de búsquedas en tiempo real”

Direcciones básicas

Acortar URLs http://cort.as
Subir fotos y vídeos http://twitpic.com
Ranking de seguidores http://twitaholic.com
Ranking de retweets http://www.resonancers.com
Geotendencias http://trendsmap.com
Los tweets favoritos de los demás http://favstar.com
Para silcenciar tweets http://muuter.com
¿Quién te deja de seguir? http://who.unfollowed.me
Buscador avanzado especializado en Twitter http://flitertweeps.com
Para saber más sobre Twitter http://todotwitter.blogspot.com

29 Ene

Tipos de buscadores

Un buscador web es un software que busca en una base de datos o repositorio documental, conforme a algunos criterios específicos y permite al usuario encontrar un documento en función de determinada palabra clave o frase. Los buscadores se clasifican en:

Indices. Son los buscadores que mantienen una organización de las páginas incluidas en su base de datos por categorías, es decir, tienen un directorio navegable de temas. Dentro de cada directorio podemos encontrar páginas relacionadas con ese tema. Para mantener esta organización, los buscadores tienen unos administradores humanos que se encargan de visitar las páginas y vigilan que todas se encuentren clasificadas en su lugar correcto

Para que una página quede registrada en un índice debemos mandarles la dirección a los administradores humanos de ese índice, generalmente acompañada de una serie de datos que les ayuden a clasificar la página de una forma correcta, como la descripción, temática, titulo, lenguaje, etc. Además, si queremos que varias páginas de nuestro sitio web estén en el buscador, deberemos registrarlas todas ellas una a una.

Motores de búsqueda. Son buscadores que basan su recolección de páginas en un robot, denominado araña, que recorre constantemente internet en busca de páginas nuevas que va introduciendo en su base de datos automáticamente. Los motores de búsqueda, no tienen por qué tener un índice, aunque cada vez es más habitual que dispongan de uno.

Los motores de búsqueda no necesitan que les facilitemos la dirección de nuestra página para tenerla en su base de datos, puesto que el robot puede haberla encontrado previamente. De todos modos, nosotros podemos mandarles la dirección si no deseamos esperar a que el robot nos encuentre, práctica muy habitual.

Para clasificar una página, los motores de búsqueda son capaces de leer el contenido de ésta y encontrar aquellos datos que permitan su catalogación. Por esto es que cuando registramos una página en un motor de búsqueda generalmente no nos piden información adicional, como ocurría con los índices.

Cuando un robot recorre nuestra página guarda sus datos, y luego se dirige a las distintas páginas que están enlazadas a esta. De este modo, solo hace falta registrar la página inicial de un sitio web, pues el motor de búsqueda se encargará de recorrer todo el sitio de manera automática. Adicionalmente, estos motores o arañas, volverán a recorrer las páginas de su base de datos en busca de cambios que se hayan producido en estas, con objetivo de mantener su información lo más actualizada posible.

Multibuscadores. También son conocidos como metabuscadores en español y metacrawler en inglés. Los multibuscadores no tienen una base de datos propia, lo que hacen es buscar la página en unos cuantos motores de búsqueda e índices y combinar los resultados de la búsqueda en esos buscadores.

29 Ene

Diferencias entre directorio y buscador

¿Cuál es la diferencia entre un buscador y un directorio? El buscador usa sistemas automáticos (robot, bot; araña, spider; rastreador, crawler) tanto para recorrer la red, realizar búsquedas e indexar las páginas en su base de datos, mientras que los directorios usan personas para calificar cada página a indexar, y listan los websites ordenados por categorías y sub-categorías. Ejemplos de buscadores son Google, Bing, Lycos… Un ejemplo de directorio es DMOZ, que es el acrónimo de Directory MOZilla. En la imagen la página de confirmación después de enviar una URL.

Directory MOZilla, página de confirmación de envío de URL

Leer más

29 Ene

Ingeniería inversa

Cada buscador utiliza un algoritmo de indexación diferente que es permanentemente actualizado y mejorado. Estos algoritmos marcan la verdadera diferencia entre buscadores y por tanto son considerados secretos industriales por las empresas que los crean. Los algoritmos son el arma más competitiva que tiene un buscador y por eso mismo apenas hay información al respecto.

Para establecer dentro de unos márgenes de confianza aceptables los procedimientos seguidos por los motores de búsqueda para indexar las páginas que visitan es necesario recurrir a la ingeniería inversa. La ingeniería inversa es la única forma de determinar qué valora cada motor de búsqueda: títulos, número de veces que las palabras clave aparecen en el texto, meta tags, textos alternativos a las imágenes, popularidad de los enlaces, etc.

La ingeniería inversa la realizan expertos a través de ejercicios conocidos como regresiones para una serie concreta de términos de búsqueda. Entre los métodos seguidos por la ingeniería inversa se encuentran;

  • Análisis matemáticos
  • Trabajos estadísticos/ lexométricos  sobre el código de las páginas mejor situadas para determinadas criterios de búsqueda
  • Creación de páginas de prueba o dominios enteros para determinar el comportamiento del motor de búsqueda
  • Creación de robots propios para el análisis de resultados

La ingeniería inversa facilita la información necesaria para optimizar la programación y el diseño de una página de entrada o de un website completo para su indexación en buscadores.

Cuanto más competitivo es internet  más difícil es conseguir una buena posición en áreas en las cuales hay muchos sitios rivalizando por la atención de los usuarios.

(Via Wikipedia) El objetivo de la ingeniería inversa es obtener información técnica a partir de un producto accesible al público, con el fin de determinar de qué está hecho, qué lo hace funcionar y cómo fue fabricado. El resultado de la ingeniería inversa es un mayor entendimiento de su funcionamiento. Los productos más comunes que son sometidos a la ingeniería inversa son los programas de ordenador y los componentes electrónicos.

La ingeniería inversa avanza en sentido opuesto a las tareas habituales de ingeniería, que consisten en utilizar datos técnicos para elaborar un producto determinado. En general si el producto u otro material que fue sometido a la ingeniería inversa fue obtenido en forma apropiada, entonces el proceso es legítimo y legal.

La ingeniería inversa es un método de resolución. Aplicar ingeniería inversa a algo supone profundizar en el estudio de su funcionamiento, hasta el punto de que podemos llegar a entender, modificar, y mejorar dicho modo de funcionamiento.

29 Ene

KPI’s para un site de contenidos

KPI’s (Key Performance Indicators) para un site de contenidos que debe generar conocimiento de marca

WEB DE CONTENIDOS BASADOS EN LA PUBLICIDAD

  • Visitas mensuales, quincenales, semanales, diarias, etc
  • Páginas vistas por visita es una referencia del grado de aceptación que tiene el site entre los usuarios)
  • Duración de la visita
  • Porcentaje de click en el site
  • Porcentaje de nuevos usuarios sobre los que retornan
  • Recencia
  • Frecuencia

WEB DE CONTENIDOS BASADOS EN LA SUSCRIPCIÓN

  • Conversión de no suscriptores en suscriptores
  • Base de suscriptores activos (basada en los diferentes incrementos, diario, semanal, mensual, etc dependiendo del modleo)
  • Medía de suscripciones
  • Conversión de renovaciones
  • ROI basado en el tipode conversión
29 Ene

¿Qué podemos saber con Google Analytics?

Google Analytics nos permite medir el ROI de todas las acciones online (PPC, banners, email marketing, programas de afiliación, SEO, referrals) y determinar qué acciones de marketing están conduciendo el mejor trafico hacia la web. De esta forma podemos saber qué campañas son las más efectivas e identificar también tendencias a largo plazo en programas de marketing online

Los KPI’s (Key Performance Indicators) en Google Analytics son:

  • Ratio de usuarios nuevos vs total
  • Promedio de páginas vistas por visita
  • Promedido de visitas por visitante
  • Días transcurridos desde la última visita del usuario
  • Páginas vistas por visita
  • Duración de la visita
  • Ratios de abandono en páginas de llegada
  • Abandonos principales
29 Ene

El lenguaje de las arañas

Un navegador (browser o visualizador) es un programa que responde a la información introducida por el usuario, enviando comandos HTTP (HyperText Transport Protocol) a través de internet. Las páginas Web son archivos de HTML que contienen texto, códigos de formato y otros datos que definen su contenido.

El navegador recupera la URL (Uniform Resource Locator) de la página que visita (es decir la encuentra entre los cientos de miles de ordenadores de Internet). Establece una conexión con el servidor remoto, transmite un código Get HTTP para recuperar el archivo HTML y presenta el documento en la pantalla.

Un robot es un navegador con piloto automático. Las arañas (spiders) son un tipo de robots que se desplazan continuamente por la internet, saltando de un lugar a otro con para crear índices actualizados de la red y volcar en bases de datos el contenido de los sitios que visitan.

El usuario ha sido sustituido por un automatismo (algoritmo) que busca e identifica hipervínculos, descarga la página en una base de daos y busca vínculos hacia otros sitios, selecciona una URL y salta hacia ella; desde allí, salta a otro sitio web y comienza todo de nuevo. Cuando la araña llega a páginas sin vínculos, regresa uno o dos niveles hacia atrás, y salta hacia uno de los que omitió la vez anterior.

Los robots se diseñan con diversas funcionalidades: para hacer índices de la web; para generar mediante algoritmos resúmenes de documentos que se almacenan en inmensas bases de datos; otros identifican los vínculos hacia páginas que ya no existen; otros llevan estadísticas relacionadas con la actualización del sitio, número de páginas, etc.

Mediante el protcolo SRE (Standard for Robot Exclusion) el administrador de un website puede dar instrucciones (controlar el comportamiento) a los robots que llegan hasta una página determinada. Puede indicar por ejemplo que los robots (todos, o uno concreto) no revisen el contenido completo de un website, que no recorran las páginas en construcción o que no accedan a directorios que no poseen páginas HTML, haciendo además más eficiente y rápido su trabajo.

Para dar instrucciones a una araña, el administrador debe crear un archivo de texto denominado “robots.txt” que indica las políticas de acceso al website. Por ejemplo, en esta instrucción se solicita a todos los robots que no recorran ni indexen la sección de la web /dibujos/imagenes y de sus subdirectorios.

# Ejemplo archivo robots.txt
User-agent:*
Disallow: /dibujos/imagenes

La primera línea corresponde a un comentario (#). La segunda indica a que robot se le hace la solicitud; en este caso, la orden es para todos (*). La tercera línea muestra a que ruta se le quita el acceso, conjuntamente con los directorios que le siguen en orden jerárquico.

Si se desea indicar una orden específica para un robot:

# Ejemplo archivo robots.txt

User-agent:*
Disallow: /dibujos/imagenes
Disallow: /en_construccion
User-agent:Scooter
Disallow:

En el ejemplo, el robot Scooter (el robot de Altavista) tiene acceso ilimitado dentro del sitio, pero prohibe a otros a ingresar a las rutas especificadas.

Si desea prohibir el acceso de cualquier robot a un sitio:

# Ejemplo archivo robots.txt
User-agent: *
Disallow: /