Posts Tagged: posicionamiento web


4
Abr 11

Web en varios idiomas: SEO y otras consideraciones

Una de los aspectos más importantes a la hora de estructurar nuestra web es como enfocar correctamente el tema de la multiplicidad de idiomas en la misma y/o como solucionamos el hecho de dirigirnos a usuarios que residen en distintos países. Se trata de un problema complejo y es buenos empezar diciendo que no hay una respuesta única para ello y que la solución dependerá de caso concreto en que nos encontremos (parafraseando a Ortega y Gasset, la web es la web y sus circunstancias). Para simplificar el tema nos centraremos principalmente en lo relativo a la orientación geográfica. Hay muchos aspectos a tener en cuenta, pero en este post los limitaremos a los siguientes:

Usabilidad: El usuario debe sentirse cómodo navegando por nuestra web y encontrar fácilmente su idioma /país

Operabilidad: Entendida como la facilidad que ha de tener el webmaster a la hora de manejar la web y sus variante idiomáticas/nacionales

Imagen de marca: ¿Cómo queremos que nuestro target nos perciba?

SEO: Evidentemente no podemos olvidarnos de nuestro amigo SEO, el mejor socio para cualquier web con aspiraciones.

A la hora de encontrar soluciones técnicas al problema que estamos analizando existen diversas soluciones, pero nos vamos a limitar a los siguientes concursantes:

Concursante 1: idiomas/paises por carpetas en un mismo dominio :

– www.ejemplo.com/es

– www.ejemplo.com/en…

Concursante 2: utilización de subdominios:

– es.ejemplo.com

– en.ejemplo.com…

Concursante 3: uso de dominios independientes:

– www.ejemplo.com

– www ejemplo.es…

Pues bien, vistos los factores a tener en cuenta y las posibles soluciones, el jurado evaluador se ha reunido  y ha formulado los siguientes comentarios a los concursantes de esta particular “operación triunfo”.

Concursante 1

Bien concursante 1 eres sin duda un buen candidato, destacas especialmente en el aspecto de la operabilidad, en la mayoría de casos es mucho más fácil manejar una web con la estructura que propones (la excepción podría ser en empresas/organizaciones con varias delegaciones internacionales independientes que prefieren administrar la/s web/s de forma autónoma). También te muestras bien preparado respecto a la imagen de marca y la usabilidad, facilitas al usuario recordar la dirección de la web, no diversificas tu mensaje publicitario y proyectas una imagen de internacionalidad que en la mayoría de ocasiones es recomendable (la excepción sería en casos donde se pretenda justamente lo contrario, es decir reforzar el carácter de cercanía/especialización geográfica de la web, por ejemplo en el caso de webs/marcas muy consolidadas internacionalmente y que presentan webs diferenciadas por países).

Pero (siempre hay un pero), cuando hablamos de SEO ahí presentas varios puntos flacos. Si, ya sabemos que tratar con una sola web puede contribuir a aumentar la “authority” de la misma (es decir que la “authority”del sitio se extienda a todas las carpetas de los respectivos idiomas), pero el problema que tienes es la geolocalización. Si usas una extensión de dominio propia de un país (e.g .fr, .es…) el dominio quedará geolocalizado para esa área y la aparición en las versiones locales de los buscadores para otras áreas quedará muy mermada. El problema es menor si usas una extensión genérica (e.g .com, .net…) ya que por ejemplo Google te permitirá asociar cada una de las carpetas a una zona geográfica determinada (mediante la herramienta para webmasters)

Otro gran problema que tienes en esta área es en el caso que utilices variables de sesión o cookies para tratar el tema de los idiomas. Te podemos asegurar que hemos visto auténticos desastres SEO en webs temerarias que han optado por esta opción. Afortunadamente algunas han optado por un tratamiento de rehabilitación “onsite” y han separado los idiomas por carpetas (y obtenido consecuentemente urls distintas), de todas formas el tratamiento ha sido doloroso y las secuelas en Google han durado meses.

Concursante 2

Algún miembro irreverente del jurado ha definido tu opción como ni chicha ni limoná, pero no te preocupes porque otros miembros han apostado fuertemente por tu cualidades. A nivel de operabilidad sería buenos que no abusarás demasiado en la  multiplicidad de subdominios y por ejemplo lo utilizarás solo para los idiomas principales, englobando los países en carpetas dentro de esos subdominios, por ejemplo así:

es.ejemplo.com/espana

es.ejemplo.com/venezuela…

Ello te permitiría no aumentar en demasía el número de subdominios creados y que los webmasters responsables pudieran dormir de vez en cuando. También debes ir con cuidado cuando hablemos de usabilidad, debes procurar que la navegación sea entendible por los usuarios y te aconsejamos que en los distintos subdominios y en la web principal destaquen los enlaces a las distintas versiones geográficas/idiomáticas (por ejemplo reservando un espacio destacado en la parte superior de la web). A nivel de imagen de marca nos gustas bastante, ya que permites no diversificar demasiado el mensaje publicitario y según la opinión de algunos miembros del jurado el hecho de disponer de subdominios puede incluso reforzar la percepción de web “potente” entre los visitantes que recibas.

Muchachote, nos gusta bastante a nivel SEO tu propuesta, ya que nos permite dos ventajas:

– Geolocalizar la distintas variantes. Efectivamente, podemos alojar cada uno de los subdominios en servidores distintos y ello nos permite conseguir ips centradas en nuestra orientación geográfica particular. Por si ello no bastara, google permite asignar a cada subdominio una orientación geográfica determinada mediante la herramienta para webmasters , es cierto como veíamos anteriormente que el concursante 1 también dispone de esta posibilidad, pero algunos miembros del jurado opinan que es menos efectiva que tu alternativa de los subdominios.
No obstante, todo lo dicho anteriormente no te valdrá de nada, si utilizas una extensión de dominio nacional, ya que quedarás inexorablemente geolocalizado para una sola área geográfica, así que cuidadín.

– Authority. Este tema es más controvertido. Está claro que el concursante 1 se beneficia en todas las carpetas que representan los idiomas/paises de la “authority” del site. En tu caso, concursante 2, también podría ser así (cosa que no pasa claramente con el concursante 3), para ello existe una teoría bastante fundamentada, que afirma si no tienes demasiados subdominios, si estos están enlazados desde la web principal, y se mantiene una estructura similar entre todos ellos, el dominio principal transmite su “authority” a los subdominios

 

Concursante 3

Vamos a ver campeón, sin duda tu propuesta es muy fuerte para las empresas/instituciones que necesiten mucha flexibilidad a la hora de presentar contenidos distintos para cada uno de los idiomas/países (pero que no te suban los humos, porque el concursante 2 también tiene esta facilidad). No obstante esa flexibilidad, tiene como grave contrapartida tu muy baja operabilidad, pues mantener varios sites y dominios distintos requiere un notable esfuerzo administrativo. Tal como decíamos anteriormente, tu planteamiento puede ser especialmente útil para webs/empresas muy consolidadas internacionalmente y que quieren acercarse más a los usuarios de cada uno de los países ofreciendo una versión nacional. De hecho, algunos miembros del jurado han expresado que muchos usuarios prefieren tratar con variantes de web nacionales, dado que las sienten más cercanas, especialmente eso es cierto cuando se producen procesos de compra online, ya que lo asocian con una atención al cliente más personalizada.

A nivel SEO tienes una gran ventaja: la geolocalización, ya que te permite asignar fácilmente cada una de las webs a la variante geográficas que desees, pero ello tiene el grave handicap de que no se transmite ninguna “authority” entre los distintos dominios, pues son percibidos por los buscadores de forma totalmente independiente. (aclaración seo, los buscadores pueden asociar una web a un determinado país pero no a un determinado idioma. La asociación a una determinada área nos permitirá aparecer en la versión local del buscador, independientemente del idioma en que esté escrita. El idioma actua simplemente como un filtro , “mostrar web en el idioma tal”). No obstante, la contrapartida de ello es que te obligará a trabajar mucho más en los temas “offsite”, ya que deberás obtener links para cada uno de los dominios, y no habrá ninguna transmisión de “authority” entre webs. (pero…algún miembro avispado del jurado ha mencionado que si lo haces bien y trabajas duro, podrás colocar varias webs en los buscadores, acaparando los primeros resultados con tus dominios para ciertas busquedas no muy competidas).

Veredicto

Vistos todos los antecedentes de hecho, el jurado declara por unanimidad  otorgar el premio “Ex aequo” a los tres concursantes, teniendo en cuenta que según las situaciones específicas de cada web , cada una de las candidatos presenta la solución más apropiada para cada situación particular:

– Webs que disponen de pocos recursos humanos  para mantenerlas, (o donde se quiere simplificar su gestión), donde se prima la authority del site y se quiere transmitir una imagen de marca unificada  fuerte e internacional, ganador concursante 1

– Webs de tamaño medio, que pretenden unificar razonablemente el mensaje publicitario transmitido y que quieren encontrar un equilbrio entre mantener la “authority” del dominio y la geolocalización, ganador concursante 2.

– Webs donde la geolocalización es muy importante, que disponen de mucho contenido y donde se necesita la flexibilidad necesaria para proporcionar contenidos y estructuras de navegación distintas para cada uno de los idiomas/paises, ganador concursante 3

Ante este veredicto, se admitirán alegaciones, que se podrán expresar mediante los comentarios abiertos a continuación de este post.


21
Mar 11

PR sculpting

Una de los obsesiones de los forofos del SEO on site ha sido tradicionalmente canalizar el Page Rank de una web hacia las páginas que más nos interesa promocionar y conseguir un triple objetivo:

– Evitar que ciertas páginas no reciban “link juice” de los enlaces salientes (por ejemplo el aviso legal)

– Distribuir  el “link juice” de una manera equilibrada a través de toda la web

– Y como decíamos anteriormente, favorecer a las páginas más interesantes para nosotros (por ejemplo las que tengan una mayor tasa de conversión, o las enfocadas a palabras clave con mucho tráfico potencial)

Esta técnica recibe el nombre de Page Rank sculpting, que en una traducción libre podríamos llamar como escultura del Page Rank, y es uno de los temas que de forma recurrente se discuten en foros y blogs especializados en temas SEO.

Para los menos avezados en el tema recordaremos que la fuerza en términos de Page Rank que recibe una determinada página proveniente de los enlaces entrantes (inbound links) se transmite a los enlaces salientes (outbound links ) en una fórmula que se cree (evidentemente nadie excepto Google lo sabe a ciencia cierta) podría ser la siguiente:

(“fuerza page rank de la página”/enlaces salientes) x factor de corrección

De lo que se desprende:

a – A mayor “fuerza”  (también llamado link juice) de la página mayor capacidad para transmitirla a los enlaces salientes. Evidente

b – A mayor número de enlaces salientes, menos “fuerza” recibe individualmente cada unos de los enlaces salientes.

c – El factor de corrección, que se estima entre el 85 y 90 %, hace que una página no transmita integramente toda su “fuerza” a los enlaces salientes. Si no fuera así las páginas acabarían teniendo un Pagerank infinito, tal como Matt Cutts expone  en el siguiente post (y que recomiendo leer):

 

image

 

Precisamente el Page sculpting se basa en el punto b/ anterior, e intenta minimizar el número de enlaces salientes (los de que van a páginas irrelevantes) para así concentra el reparto del link juice a las páginas que nos interesen. Para conseguir este efecto se utilizan varias técnicas que describimos a continuación brevemente:

– El uso del atributo “nofollow” para los enlaces que queremos descartar. La idea era que utilizando este atributo (que como sabemos hace que un link no transmita Page Rank) el link juice repartido se concentrara en los en laces dofollow que nos interesen. La técnica tiene lógica…pero nuestro gozo en un pozo ya que fuentes de Google han dicho que no sirve para nada, ya que el buscador continuará dividiendo el link juice repartido por el total de enlaces sean o no sean nofollow. Lo podéis ver en el siguiente video:

 

 

– Enmascarar los links usando javascript. El punto de partida es considerar que los enlaces construidos a partir de javascript no son seguidos por los buscadores, por lo que Google no detectaría esos enlaces que queremos eliminar del ojo escrutador de Google…pero la teoría darwiniana de la evolución de las especies aplicada al mundo virtual es inexorable y numerosas pruebas efectuadas por expertos seo demuestran que los spiders siguen sin dificultad la mayoría de esos enlaces, por lo que tampoco sería una solución.

– Técnicas avanzadas de enmascaramiento. Existen distintas variantes (la mente humana parece no tener descanso), evidentemente no podemos recogerlas todas en este post, pero os expongo una bastante sofisticada que he encontrado en el siguientes post

 

image

 

El problema tal como reconoce el mismo autor es que nos estamos adentrando en el mundo “black hat” y podemos ser penalizados por Google por intentar “engañar” al buscador rey, recordemos uno de los puntos que los responsables de Google siempre enfatizan:

Quality guidelines – basic principles

Make pages primarily for users, not for search engines. Don't deceive your users or present different content to search engines than you display to users, which is commonly referred to as "cloaking."

 

Par los que quieran profundizar más al respecto de este tema os dejo una muy interesante discusión al respecto:

http://www.google.com/support/forum/p/Webmasters/thread?tid=43c85ef328efaea4&hl=en

 

¿Cual es mi conclusión de todo lo expuesto anteriormente?

Francamente aconsejaría olvidarse del PR sculpting y dedicar nuestra energía SEO a otros menesteres.


14
Mar 11

Nuevo algoritmo de google

Con fecha 24 de Febrero Google ha anunciado en su blog oficial un importante cambio en su algoritmo:

“This update is designed to reduce rankings for low-quality sites—sites which are low-value add for users, copy content from other websites or sites that are just not very useful. At the same time, it will provide better rankings for high-quality sites—sites with original content and information such as research, in-depth reports, thoughtful analysis and so on.”

En los círculo seo se ha denominado a esta actualización como “Panda update” (también “Farmer update”). Aunque en principio solo se ha aplicado a la versión americana del buscador, en las próximas semanas se irá implementando a nivel internacional.

Alguna reflexiones al respecto:

– Se penaliza especialmente los sitios web que según google tengan contenido de baja calidad (en especial el contenido copiado). Pero claro ¿quien le pone el cascabel al gato?. En una entrevista en wired, se le preguntaba a los representantes de Google lo siguiente:

Wired.com: How do you recognize a shallow-content site? Do you have to wind up defining low quality content?

Singhal: That’s a very, very hard problem that we haven’t solved, and it’s an ongoing evolution how to solve that problem

En otra palabras, parece que ni ellos lo tienen muy claro

 

– Consecuencia inmediata de lo anterior es la gran bajada en tráfico que han sufrido por ejemplo los directorios de articulos, que se nutren mayoritariamente de contenido duplicado aportado por los usuarios. Unas estadisticas publicadas en sistrix reportaban cuales habían sido algunas de las principales webs afectadas:

 

image

 

Pero también hay mas tipos de webs que pueden verse afectados (fuente):

What kind of sites are subject to this algorithmic change?

  • Content Farms. Examples include Demand Media, eHow, Huffington Post, Mahalo, and Article Marketing sites.
  • E-Commerce Sites which do not have substantive or unique content on product descriptions. This is typical of data-feed driven e-commerce sites.
  • Scraper Websites. Websites which syndicate or scrape or steal content from other sites and then repost it.
  • Coupon Driven Websites. Like e-commerce sites, these do not generally provide substantially unique or useful content.

No obstante algunos autores apuntan que se deben dar algunas especiales circunstancias para “activar” esta penalización en nuestro site:

  1. It has to be a big site, lots of pages is a fundament of this filter.
  2. The site is not an authority. We found that sites over a certain level of authority are spared the filter even though they otherwise fall in the category.
  3. The site has lots of ads. To many ads on a page is one of the fators activating the filter.
  4. The site is visible on a lot of long tail searches.
  5. The site has thin content.

– Es preocupante el dominio absoluto que ejerce Google en el mundo de las búsquedas desde hace años, y como miles de webs y empresas se ven afectadas por las decisiones (legítimas, no lo discuto) que toma. Una de las mayores críticas que se ha efectuado a Google con esta actualización del algoritmo es de que precisamente google es uno de los mayores inductores indirectosde este tipo de webs de gracias a su programa de publicidad Adsense y sus secuelas:los llamados MFA webs (made for adsense sites). Uno de los comentarios ade la entevista anteriormente mencionada refleja precisamente este hecho:

“Google has a fundamental conflict of interest that may be impossible to solve: the "shallow" content they are claiming they want to eliminate is on MFA (Made for AdSense) sites. IF those sites weren't making them money they could simply delete every page that has three blocks of AdSense on it and eliminate most of the crappy sites.
Does anyone think they will actually do that? Google CREATED that problem to increase their income. Do you think they are going to reduce their income on purpose? If you do, I hear there is a bridge out Arizona way for sale.
It is about time people realized that allowing any company to have a monopoly on search endangers every business that counts on traffic from search. The solution is for Internet users to use alternative search engines and I challenge ever blogger to start writing posts about alternatives. “

– Si nos centramos en las connotaciones SEO del cambio, yo antes que nada aconsejaría calma, en primer lugar porque es muy pronto para evaluar a fondo la situación, y en segundo lugar porque,como tantas veces ha pasado no hay que sobredimensionar los cambios, porque en el fondo tampoco cambian tanto los fundamentos básicos para conseguir buenas posiciones en los buscadores: buena optimización onsite, contenido abundante y de calidad (aquí si que cobra más importancia este factor) y unos backlinks diversificados (que procedan de varios tipos de fuentes). Nihil novum sub sole

– Evidentemente para algunas webs la situación habrá cambiado substancialmente (tal como veiamos anteriormente en el caso de los directorios de artículos). Pero en la mayoría de casos estos simples consejos pueden bastar (ver fuente original):

 

Readdress your ad-to-content ratio. If you’re focused too much on ads, you could improve your site’s “usefulness” by removing some ads or beefing up content.

Remove or redirect poor quality pages. This allows the high-quality pages to shine all the brighter. The lower quality pages can negatively impact the entire domain.

Get involved in social media (and traditional media). It will help you be perceived as a brand that interacts with customers outside of search

Yo añadiría por mi parte disminuir el peso en nuestra estrategia de backlinks a la difusión de artículos y notas de prensa.

– Y ya para finalizar dejo una serie de hilos y comentarios interesantes, para quien quiera ahondar más en el tema (y que van en la línea de lo que exponíamos anteriormente):

http://www.warriorforum.com/adsense-ppc-seo-discussion-forum/344877-farmer-change-how-you-guys-building-your-links.html

“I haven't changed my backlinking style at all. Then and still now I try to keep a diverse portfolio of backlinks, so there isn't any reason to change it up now. Article backlinks are still worth something, so there's no reason to completely change up your plan and throw them out. “

“Yes I would agree that webmasters are overreacting with the new Google Panda Update”

http://blogoscoped.com/forum/177740.html

“Google can't detect low-quality content because quality is subjective. Google can't even distinguish an original article from a post that quotes the article. I've searched for the title of an article from AllThingsD and the top result was a page from a news aggregator.”

http://www.webmasterworld.com/google/4273051.htm

“It's this: in order to target content farms and work out their "true" authority, G dialled down the emphasis on internal linking. Therefore sites with good external links to every single page are doing great, but sites that depended on sheer size and internal linking to rank, have tanked. “

http://forums.digitalpoint.com/showthread.php?t=2104646

“Some keyword stats for Mahalo:
"mahalo" – From #1 to #3 <- WOW.
“how to play guitar” – From #1 to #7
“bed bath and beyond coupons” – From #2 to #13
“fallout 3 walkthrough” – From #1 to #4
“to get pregnant” – From #2 to #119
“filestube” – From #5 to #81
“best christmas movies” – From #6 to #19
“outback steakhouse coupons” – From #1 to #5
For EzineArticles:
“acai berry” – #9 to #194
“reverse phone lookup” – #14 to #45
“penis enlargement” – #4 to #65
“article submission” – #2 to #12
“credit card debt relief” – #1 to #10”


28
Sep 10

Última hora:desmantelado complot para asesinar al SEO

Artículo publicado previamente en Loogic

Teletipo de agencia:”Se ha abortado una nueva conspiración para matar al SEO, una de las estrellas rutilantes del marketing online, conocida también por el alias “posicionamiento web”. En esta ocasión el presunto culpable, ha sido identificado con el nombre de “Google Instant”. Fuentes bien informadas han declarado que el SEO ha salido completamente ileso del fallido atentado, y que en ningún momento ha corrido peligro su existencia.

No es la primera vez que se ha frustrado un nuevo ataque contra el pobre SEO, de hecho algunos expertos ya han acuñado un nuevo término para definir este tipo de delito:el seocidio. Con esta misma intención, se desmanteló hace pocos meses una banda de conspiradores que bajo el nombre de “redes sociales” pretendía acabar con la existencia del posicionamiento web.

El SEO no ha querido realizar declaraciones al respecto y se ha limitado a afirmar que continuará luchando por aportar tráfico de calidad a las webs y aumentar su número de conversiones”

Perdonarán los lectores esta pequeña nota de humor para empezar el artículo, pero uno debe tomarse ya a broma las continuas noticias que aparecen periódicamente como serpientes de verano y que pronostican in-du-da-ble-men-te que los días del SEO están contados.

El último bulo ha sido la afirmación de que con la aparición de Google Instant el usuario el posicionamiento web perdía relevancia (Google Instant es una variación introducida recientemente por Google a la hora de presentar sus resultados, que potencia el uso de sugerencias de posibles resultados mientras el usuario teclea su búsqueda: “Search as you type”). Eso es totalmente falso, y se basa en una desconocimiento de lo que en el fondo es el SEO. El posicionamiento web no aborda el problema de como posicionarse en un determinado algoritmo de Google. El SEO es mucho más amplio que eso y su objetivo es conseguir que una web tenga una posición destacada en las interfaces que permiten al usuario final encontrar la información que busca dentro del infinito caudal de información que representa Internet. Ya no hablamos de un buscador determinado (ni mucho menos de una versión concreta del mismo), es posible que a medio plazo Google desparezca, es probable que los buscadores incorporen la voz y el video en formas que aun ni conocemos, e incluso que en un lejano futuro podamos conectarnos mediantes ondas cerebrales con ellos para obtener la información deseada, pero todo ello no afecta, a mi entender, la necesidad subyacente de organizar la información de una manera inteligible para el usuario final, y consecuentemente la oportunidad para el especialista SEO de intentar destacar la información que desea. Google Instant puede cambiar alguna metodología SEO, pero eso  ha ocurrido siempre, Internet es un mundo cambiante y el posicionamiento no es ninguna excepción.

En el mismo sentido, la afirmación de que las redes sociales substituirían a los buscadores es totalmente errónea (de hecho la principal “víctima” de este fenómeno están siendo los medios tradicionales). En el peor de los casos, en el improbable caso que fuera así, el SEO debería adaptarse para posicionarse…!en las redes sociales!. Pero la realidad está demostrando que eso no va a ser imprescindible, las redes sociales y los buscadores sirven a necesidades distintas (solo hace falta analizar los porcentajes de conversión de las visitas de ambas fuentes de tráfico para una web). Ello no significa, ni mucho menos, que debamos obviar la relevancia del social media, por la creciente importancia que tienen en los algoritmos de búsqueda y por el valor intrínseco que representan a la hora de mejorar el “branding” de nuestra empresa y aumentar el tráfico a nuestra web; pero todo ello no puede ir en detrimento del posicionamiento en buscadores, hoy por hoy (y probablemente por muchos años), la principal fuente de tráfico de calidad para una web.


1
Jul 09

La larga cola del SEO

 

La expresión “long tail” (que se puede traducir como “larga cola”) debe su origen a una expresión acuñada por Chris Anderson en el año 2004 para describir un tipo de negocio caracterizado por la que mayoría de ingresos provienen de pequeños gastos efectuados por múltiples clientes. Un gráfico nos servirá para ilustrar claramente este concepto:

long

(fuente del gráfico:wikipedia)

En el gráfico se puede observar lo apuntado anteriormente, el área amarilla (pequeñas aportaciones de muchos clientes) puede ser incluso mayor que el área verde (grandes aportaciones de pocos clientes).

Cuando hablamos de SEO o posicionamiento web nos encontramos que el concepto de “long tail” se ajusta muchas veces para explicar cómo se distribuye el tráfico a una web proveniente de los buscadores. En efecto, si analizamos las estadísticas de nuestra web con cualquier plataforma de web analytics, nos daremos cuenta al analizar el trafico orgánico (el que viene de los buscadores), que existen multitud de palabras o combinaciones de palabras que a nivel agregado representan un tráfico mayor que el que suponen las aportaciones de las palabras “top” . Este fenómeno es aun más acusado en webs que tengan un gran número de páginas de contenido. Pongamos un ejemplo, supongamos una web dedicada a la venta de viajes online, probablemente las palabras que le aportan mayor tráfico sean “viajes”, “billetes de avión”, “turismo” y similares, no obstantes las visitas procedentes de la suma de las cientos de palabras como “viajes a Barcelona”, “turismo económico en Andalucia” o “billetes de avión ultima hora” representarán en su conjunto un mayor volumen de visitas que el suministrado por esas primeras palabras que consideramos a priori tan importantes.

Si a este fenómeno le sumamos el hecho de la enorme competencia que existe para posicionarse para dichas llamadas palabras top (=millones de resultados en los buscadores), la conclusión que debemos extraer es obvia.: debemos tener un enfoque integral del SEO que tenga como prioridad el aumento del tráfico orgánico, no solo conseguir posiciones para las palabras top relacionadas con nuestra web.