Pourquoi mon site ne ressort pas dans les moteurs de recherche ?

on .

Il faut tout d'abord vérifier si Google connaît votre site web.

Tapez "site:votresite.com" dans Google pour savoir s'il a indexé des pages appartenant à votre site.

Si aucune page n'est connue, essayez d'obtenir quelques liens pointant vers votre site afin que Google le découvre.

Si des pages ressortent c'est que votre site est connu par Google mais qu'il considère les autres sites comme plus pertinents pour les expressions clés que vous avez testé.


Il est impossible de répondre en quelques lignes à cette question.

Globalement, il faut :

- Que la structure de votre site permette aux moteurs de recherche de parcourir vos pages sans difficulté.

- Proposer un contenu riche et original susceptible d'intéresser les internautes. Ce contenu doit être mis en valeur par l'utilisation cohérente des balises HTML qui fera ressortir notamment les mots clés importants.

- Avoir un site populaire, c'est à dire avoir de nombreux liens placés sur d'autres sites web qui pointent vers votre le site.


Google n'explique pas comment être toujours positionné en première position. Personne ne peut donc garantir de placer votre site en 1er dans un moteur de recherche.

Cela n'est donc pas une question d'argent.

En fonction des mots clés que vous ciblez, il faudra fournir plus ou moins de travail et de temps pour obtenir de bonnes positions.

Le tarif des prestations varie parfois fortement d'un prestataire à l'autre.


Vous n'êtes pas le seul à payer un référenceur et il existe des milliers de sites web.

Par ailleurs, la difficulté pour se positionner sur une requête constituée d'un seul mot est très importante.

Il faut souvent beaucoup de temps et de backlinks (liens) pour se positionner sur ce type de keyword.

Cela ne veut pas dire que votre prestataire est incompétent. D'ailleurs, est-ce que cette place vous apporterait vraiment du business ?

N'hésitez pas à parler de la théorie de la longue traine avec votre prestataire...


La qualité de l'esthétisme d'un site ne peut être jugée de manière automatique ou de manière formelle.
Dans tous les cas, les moteurs de recherche ne prennent pas encore en considération la qualité du design d'un site dans le cadre de l'élaboration de leur classement.

Il faudrait tout d'abord définir ce qu'est un "bon référencement".

Dans tous les cas, le référencement se bonifie généralement avec le temps. Il faut avouer qu'il est difficile d'obtenir d'excellents résultats lors de la première année d'existence d'un site web.

Toutefois, nous sommes aujourd'hui à l'heure du référencement en temps réel et il est possible d'obtenir dans certains cas des résultats spectaculaires en quelques mois.

En ce qui concerne les expressions clés les plus concurrentielles, tout dépendra de l'age de votre site web et de l'importance du travail réalisé mais les jeunes sites sont clairement défavorisés par rapport aux sites les plus anciens.

Enfin, tout dépendra surtout de la concurrence et de son avance sur les mots clés que vous ciblez.


Le premier arrivé n'est pas toujours le mieux positionné.

Quelques mois d'avance entre deux sites concurrents signifient peu de choses.

Ils ont certainement tout simplement travaillé l'optimisation de leur référencement naturel plus que vous.


Le contenu n'est pas le seul paramètre pris en compte par les moteurs de recherche.

Par ailleurs, ce n'est pas la quantité qui compte.

Les moteurs évaluent automatiquement la pertinence de chaque contenu via des algorithmes dont personne ne connaît le fonctionnement exact.


Il n'est pas possible de répondre avec certitude à cette question étant donné le fonctionnement des moteurs de recherche.

Une première position ne peut pas être garantie.

Le temps pour atteindre un positionnement dépendra de l'intensité du travail réalisé et de la concurrence.

Ainsi, cela peut prendre entre quelques minutes et plusieurs années.


La mise à jour est automatique.

Souvent il s'agit du contenu de la meta description. Il suffit donc de la modifier et d'attendre.

Si la balise META Description n'est pas suffisamment pertinente, ou pas assez remplie, les moteurs choisissent alors une portion de texte autre dans le code source.

Pour accélérer le process, vous pouvez essayer d'obtenir de nouveaux liens vers la page modifiée.


Généralement, on obtient ce positionnement sans rien faire si le nom de votre site n'est pas dans le dictionnaire ou d'usage courant.

Dans tous les cas, il ne s'agit pas d'un critère pour dire si l'optimisation du référencement naturel d'un site est bon ou mauvais.

C'est en effet la moindre des choses que votre site se positionne sur son nom...


Cela est tout à fait possible.

Certains webmasters ou blogueurs sont plus performants que certains référenceurs professionnels...

Toutefois, si vous estimez avoir les connaissances nécessaires, il faut bien avoir conscience que cela peut prendre beaucoup de temps et donc d'argent.


Le fonctionnement du moteur de recherche de Google repose sur des programmes informatiques, des algorithmes complexes élaborés par des ingénieurs / chercheurs.

Les bons référenceurs connaissent le fonctionnement de l'algorithme global dans le cadre de l'élaboration de son classement.

Google communique également sur les grandes lignes à respecter pour être bien positionné dans son moteur.

Toutefois, la connaissance et le respect de tous ces critères ne suffisent pas. Même un ingénieur de Google ne pourrait réussir à positionner un site systématiquement en première position.

En effet, il est difficile voir impossible d'agir sur certains critères particulièrement ceux classés dans la catégorie des critères "Off-page".

Ainsi, un bon référenceur ne vous garantira pas des positions. Bien entendu, il est possible d'estimer à 99% de chance le fait de se placer sur certaines expressions clés très peu concurrentielles.

Si un prestataire vous garantit des positions dans les résultats naturels des moteurs de recherche, méfiez vous !


Non.

Si vous disposez d'un nom de domaine en .fr votre site sera automatiquement "rattaché" à Google.fr même s'il est hébergé à l'extérieur du territoire français.

Il existe plusieurs techniques pour geo-localiser un site notamment via Google Webmaster Tools.

Il sera important également d'obtenir des backlinks en provenance du pays ciblé.

Certains hébergeurs proposent de directement geo-localiser l'adresse IP d'un nom de domaine.


D'après Google il n'y a aucun lien entre le service Google Adwords et les résultats naturels du moteur de recherche.

Toutefois de nombreuses personnes ont constaté des coïncidences troublantes mais il n'y a aucune preuve.

Nous savons juste que certaines ressources sont mutualisées entre GoogleBot et Google AdsBot (le robot des publicités Google Adwords) via un système appelé "Crawl caching proxy".


Pour répondre à cette question, il faut avoir deux chiffres sous la main.

Les parts de marché des moteurs de recherche et le trafic de votre site web.

En France, Google occupe plus de 90% de part de marché.

Pour la majorité des sites web, la visibilité dans les moteurs passera donc avant tout par Google.

Toutefois, si votre site est de taille très importante et génère beaucoup de visites, il sera toujours intéressant d'être visible sur les autres moteurs de recherche.


Google a répondu clairement à cette question : Non.

Toutefois un serveur dédié est synonyme d'adresse IP unique, de haute disponibilité et de "voisinage contrôlé".

Ce qui ne peut être considéré que comme des avantages.


Aucun logiciel n'est nécessaire pour obtenir des bons résultats en référencement naturel.

Toutefois, certains peuvent vous simplifier la vie et vous faire gagner du temps.

Il existe par exemple d'excellents plugins pour le navigateur Firefox. D'autres logiciels permettent de créer facilement des sitemaps au format xml ou bien de contrôler automatiquement vos positions.


Non.

Tout d'abord, il faut avoir conscience qu'un site peut être un blog, qu'un blog est un site mais qu'un site n'est pas nécessairement un blog :-)

Alors d'où vient cette légende ?

Les solutions open source telles que Dotclear ou Wordpress permettent de mettre en ligne des sites (blogs) de manière très aisée. Ces solutions très bien conçues sont "Search Engine Friendly".

C'est à dire qu'elles ne présentent aucune contrainte pour obtenir un bon référencement naturel. Il s'agit d'un grand bond en avant comparativement aux nombreux "sites persos" qui regorgent bien souvent d'erreurs.

Enfin, le principe même d'un blog favorise une bonne visibilité : Du contenu, mise à jour fréquente, nombreux liens "échangés" entre blogueurs, etc.


Le classement Alexa n'influence pas le référencement naturel d'un site web.

Ce classement est réalisé principalement à partir des statistiques récupérées via la toolbar proposée par Alexa.

Alexa et Google sont deux sociétés indépendantes.


Cela n'est pas vraiment utile.

Il existe des formulaires de soumissions sur Google, Live (Bing)... Toutefois l'utilisation de ces formulaires ne garantie rien.

Pour que les moteurs découvrent votre site, il vaut mieux obtenir des liens pointant vers votre site (backlinks).


Le délai d'indexation par Google est très variable.

Il varie de quelques minutes à plusieurs jours.

Plus vous obtiendrez de liens rapidement pointant vers votre site web, plus votre site sera rapidement indexé.


Les robots des moteurs de recherche parcourent les pages web. Ils les crawlent.

Lorsqu'une page est crawlée pour la première fois, elle n'est pas encore indexée, c'est à dire qu'il est impossible de la trouver via une recherche dans un moteur.

Elle est indexée lorsque l'on peut trouver cette page en cherchant dans le moteur.

Enfin, on dit qu'une page est positionnée lorsqu'elle ressort sur des expressions clés intéressantes susceptibles d'attirer un trafic qualifié vers votre site..


En anglais, SEO peut avoir deux significations :

  • Search Engine Optimization que l'on peut traduire par Référencement Naturel
  • Search Engine Optimizer que l'on peut traduire par Référenceur

La fréquence et la durée des visites est variable d'un site à l'autre et d'un moteur à l'autre.

Il n'est pas rare que les robots crawlent au cours d'une journée des centaines de pages d'un même site web.

Plus vous publierez régulièrement de nouvelles pages, plus votre site aura un nombre de pages important et plus votre site sera populaire (backlinks), plus les visites des robots seront fréquentes. Ce qui est finalement assez logique.

Le services Google Webmaster Tools, vous donnera des statistiques sur l'exploration de votre site par Google Bot.


La durée d'attente est variable. Cela peut prendre 1 jour ou plusieurs dizaines.

Pour accélérer la mise à jour, essayez d'obtenir de nouveaux liens vers cette page.


Vous pouvez utiliser la balise meta noindex.

Si vous supprimez la page (erreur 404) alors Google pourra la désindexer mais cela demandera un peu plus temps.

Pour une action en urgence, il faut alors passer par le service Google Webmaster Tools.


Tout simplement en utilisant la balise meta noindex.

Ne pas faire de lien vers une page ne suffit pas pour être sur et certain qu'elle ne sera pas indexée.


Vous pouvez utiliser la commande site: pour demander le listing des pages indexées d'un site donné ou du répertoire d'un site donné.

Voici comment utiliser cette commande :

site:www.domaine.com


Tous les visiteurs qui consultent votre site laissent des traces même les robots des moteurs de recherche.

Vous pouvez consulter les fichiers log de votre serveur ou utiliser des solutions dédiées aux tracking des robots.

Le service Google Webmaster Tool, vous propose des statistiques sur la fréquentation de GoogleBot, le robot de Google.


Beaucoup moins qu'avant.

Si l'on considère les balises keywords et description, il ne faut plus compter dessus pour être bien positionné dans les moteurs de recherche.

Google n'utilise pas officiellement le balise keywords.

La balise meta description ne semble pas servir de manière directe dans le positionnement. Il est important de la personnaliser sur chaque page afin de favoriser une bonne indexation et de donner envie aux internautes de cliquer dans les pages de résultats.


A priori non, en tout cas pour Google.

Placer un mot dans la balise meta keywords qui n'existe sur aucune autre page web ne permet pas à cette page de se positionner sur Google.


Absolument pas et heureusement.

Ce que voit Google est le code HTML généré par votre serveur.

Sous firefox, vous pouvez consulter ce code via le menu Affichage -> Code source.


Absolument pas.

Un Sitemap est un fichier au format XML qui liste les pages de votre site web et qui fournit certains renseignements sur les pages comme leur rythme de mise à jour.

Ce type de fichier est également supporté par Yahoo et Bing.


Les principaux moteurs de recherche ignorent totalement cette balise.

Elle est donc inutile pour optimiser votre référencement naturel.

Cette situation peut bien entendu évoluer.


D'après plusieurs tests réalisés, Google ne prendrait en compte aucune balise de ce type.

Il n'est donc pas nécessaire de les utiliser dans l'optique d'optimiser votre référencement naturel.


Cet attribut ne semble pas être utilisé pour influencer le positionnement d'une page sur un terme donné.

Toutefois, il semble que Google puisse utiliser cet attribut notamment pour les intitulés de sitelinks.


Il est recommandé de ne pas dépasser les 100 caractères et parfois même moins.

En effet, dans les pages de résultats, les 100 premiers caractères ne sont pas affichés.

Des récents tests menés semblent indiquer que Google consulte bien plus que les 100 premiers caractères.


Il est recommandé de ne pas dépasser les 250 caractères dans les descriptions de vos pages.

Toutefois il semble que Google consulte plus de 250 caractères mais favorise les phrases placées en début de description lors de l'affichage des résultats.


Inutile de compter les caractère de votre meta keywords étant donné sa très faible importance aujourd'hui (inutilité ?)

Si vous personnalisez votre balise pour chacune de vos pages, vous pouvez indiquer une dizaine de mots clés... cela sera déjà très bien.


Non. Il n'y a pas de prime à la validation.

Toutefois, on peut constater que bien souvent les pages ayant un code propre et valide sont plus souvent accessibles que les autres pages.

Il n'y a d'ailleurs pas de bonne raison pour présenter un code non valide :-)


Un site accessible est souvent synonyme de bonne indexation.

Il est régulièrement rappelé que Google Bot souffre d'un handicap visuel et moteur puisqu'il ne peut ni voir vos pages ni utiliser une souris.

On peut remarquer que le respect des bonnes pratiques liées à l'accessibilité annule des nombreuses contraintes liés au référencement.

Il n'y a pas de "bonus" dans l'algorithme de Google pour les sites accessibles mais cela est toutefois clairement une bonne chose pour votre référencement naturel.


Non.

Il est toutefois recommandé de ne pas utiliser des tableaux pour mettre en page entièrement un site web mais plutôt d'utiliser les balises 'table' pour la présentation des données tabulaires.

Cela n'a toutefois pas d'impact sur le référencement naturel d'un site web.


Il n'existe pas de meilleur indice de densité.

Pourquoi une page avec un indice de 4,8% sera plus pertinente qu'une page proposant une densité de 6,3% ?

Définitivement cela n'est pas un bon indice.


Il existe plusieurs outils pour trouver des mots clés saisis par les internautes dans les moteurs de recherche.

Et notamment :

  • Générateur de mots clés Google AdWords
  • Google insight for search
  • Google Search-based keyword tool
  • Yahoo Search Marketing
  • Microsoft Adcenter
  • Wordtracker (UK - USA)
  • Keyworddiscovery

Il ne semble pas exister de 'mots clés' qui pénalisent automatiquement votre site web.

Toutefois, il est certain que les expressions clés utilisées permettront aux moteurs de recherche d'identifier une thématique rattachée à votre site.

Et s'il n'existe pas de mots clés 'poison', il existe bien certaines thématiques filtrées ou faisant office d'un traitement particulier comme le domaine du X.


Non cela n'est pas obligatoire.

Toutefois on constate que certaines pages se classent en première page de google très rapidement parce qu'elles sont récentes.

On parle de prime de fraicheur, de freshrank ou de QDF (Query Deserves Freshness)

On constate également que les robots reviennent visiter plus fréquemment les sites qui sont régulièrement mis à jour.


D'un point de vue purement 'SEO', il est certainement préférable de n'utiliser qu'une seule balise H1 par page.

Idéalement le contenu de cette balise est différent sur chaque page et contient les termes les plus importants.


Il n'y a pas de règle et il est possible d'aboutir à d'excellents résultats en ayant le même contenu ou un contenu différent.

Toutefois, je préconise si possible de modifier légèrement le contenu afin de saisir de nouvelles opportunités de positionnement.


La duplication de contenu interne ou l'auto duplication est le fait de dupliquer sur son propre site du contenu.

D'après Google, il n'y a pas à s'inquiéter pour ce type de duplication.

Toutefois, je vous recommande d'éviter au maximum ce type d'erreur qui est souvent facilement corrigeable.

Le plus important est que tous vos liens internes pointent vers une et une seule version de votre contenu afin de ne pas diluer inutilement votre popularité.


Utiliser les balises de mise en valeur de texte comme le gras (strong, b) ou l'emphase (em) a aujourd'hui apparemment peu d'importance.

Les moteurs de recherche favorisent de plus en plus les critères extérieurs (off-page) car ils sont moins manipulables que les critères on-page.


Le contenu est déterminant pour vos internautes. Quand on fait un site Internet, il faut toujours favoriser l'expérience utilisateur (accessibilité, ergonomie, répondre à ses attentes...) car c'est ce qui assurera la pérennité de votre entreprise.

Il est cependant clair que l'augmentation de la popularité (par l'augmentation des liens pointant vers son site) augmente plus rapidement le référencement de son site Internet.

Ces liens doivent être faits naturellement par les internautes et ne pas être créés artificiellement pour augmenter votre positionnement. C'est donc en créant du contenu orignal et innovant que vous augmenterez votre référencement, tout est lié dans un cercle vertueux.


Un lien en dur est un lien de type HTML d'une page A vers une page B.

On parle de lien en dur par opposition aux différentes techniques de mise en place de liens en javascript ou via des redirections, qui ne transmettent pas toujours de popularité au site visé.


Un backlink est simplement un lien en dur qui pointe vers une page donnée.


Un lien reste un lien.

Toutefois, il faut avouer que de nombreux annuaires ne sont plus efficaces.

A vous de bien sélectionner les annuaires, privilégier les annuaires thématiques, ceux bien vus par Google et les annuaires qui apportent vraiment du trafic.


Une prestation du référencement complète ne peut couter 199 euros.

Pourquoi ? Tout simplement parce qu'il faut plusieurs jours pour bien optimiser le référencement naturel d'un site web et qu'en France, personne ne peut travailler plusieurs jours pour 199 euros TTC.

Concernant les offres de référencement automatique (soumission dans des annuaires) il faut éviter au maximum les réseaux d'annuaires et se souvenir qu'il est largement préférable de proposer des titres et descriptions variées.

Dans tous les cas, cela n'aura rien à voir avec une véritable prestation d'un consultant ou d'une agence.


A la base cette commande n'est pas destinée uniquement aux référenceurs et n'a pas pour vocation d'être exhaustive.

C'est aussi un choix de Google afin de ne pas encourager la course aux backlinks.

Préférez le service Yahoo Explorer ou Google webmaster tools pour connaître l'ensemble de vos backlinks.


Le pagerank est toujours utilisé dans l'algorithme de Google.

On peut toutefois penser qu'il a énormément évolué depuis sa définition et son lancement initial.

Il s'agit donc d'un bon indicateur mais il ne fait pas tout.

D'ailleurs le pagerank affiché dans la barre d'outils Google n'est pas le pagerank qu'utilise Google. En effet, la valeur affichée n'est que la valeur du pagerank calculée à un moment donné et non celui utilisé qui est mis à jour beaucoup plus régulièrement...


Le pagerank est exporté tous les 3 à 4 mois par Google en moyenne.

Il n'est donc pas possible de connaître la valeur de son pagerank en temps réel.

Pour voir l'effet de son travail de netlinking, il faut donc souvent attendre. Toutefois, il faut bien avoir à l'esprit que cela n'est pas forcement la quantité de liens qui compte. En effet, les liens sont pondérés. Ainsi 1 lien peut avoir plus de poids que des centaines d'autres liens.

Enfin, plus vous grimperez dans l'échelle du pagerank plus il sera difficile de gagner un point, l'échelle étant de type logarithmique.


Le pagerank n'est qu'un critère utilisé dans l'algorithme de Google parmi des centaines (des milliers ?) d'autres.

Il ne suffit donc pas d'avoir un plus grand pagerank pour être positionné devant une page.


Les équipes de Google ont confirmé qu'il n'existait pas d'extension de nom de domaine privilégiée dans le cas d'un lien externe.

Le bénéfice acquis par un backlink découle de la popularité même de la page faisant ce lien.

Il est effectivement plus fréquents que les domaines en .gov et .edu (sites gouvernementaux, institutionnels ou assimilés) soient de meilleure qualité aussi bien au niveau éditorial qu'au niveau de la popularité.


Personne ne peut répondre à cette question.

Généralement la valeur du pagerank est exportée tous les 3 à 4 mois. Mais il ne s'agit que d'une valeur calculée à un instant T et non à la valeur en temps réel du pagerank.


Les liens sortants ne pénalisent pas le référencement, il faut voir un lien comme un vecteur de popularité.

On peut considérer qu'un lien a une "entrée" et une "sortie". L'entrée correspond à la page d'origine qui fait le lien, et la sortie à la page de destination, celle qui reçoit la popularité transmise.

Ainsi un lien, s'il est de type "en dur", va favoriser avant tout la page de destination, et lui transmettre un peu de la popularité de la page d'origine.

Il n'y a pas d'inquiétude à avoir à faire des liens externes, le lien est la base même du web et les équipes de Google ont tenu à rassurer les webmasters sur la nécessité à en faire.


Le meilleur backlink est le backlink qu'un éditeur de site Internet fait spontanément vers votre site car il a apprécié ou désire le faire connaître à ses lecteurs/clients.

Influencer les webmasters à faire des liens vers votre site n'est pas pérenne et n'est pas "naturel", ce type de procédé peut amener à vous pénaliser.

Il ne tient qu'à vous de créer du contenu original et attractif pour donner envie aux internautes de faire des liens vers votre site.


Les liens en footer sont monnaie courante sur le web, pour sceller des partenariats entre différents sites.

Cependant, bien qu'il y ait du volume du fait qu'être présent dans un footer implique un backlink sur toutes les pages indexées, le lien footer est pondéré par l'algorithme de Google.

De plus, Matt Cutts a récemment annoncé que les liens en footer pouvait paraître peu naturels et pouvaient être susceptibles d'être plus contrôlés que les liens traditionnels dans le contenu.

Les liens dans le contenu offrent une structure sémantique au lien, il est beaucoup plus puissant grâce au "contexte" thématique qui se dégage de son emplacement. Il est donc en tout point de vue très préférable au lien footer.


La Google Sandbox est un traitement particulier de l'algorithme qui concerne surtout les sites en cours de "naissance".

Il existe beaucoup de théories sur la sandbox, mais ce sont pour la plupart des fantasmes car personne ne sait réellement quel est le fonctionnement de l'algorithme de Google.

Cependant, selon les nombreux témoignages et retours d'expérience, il semblerait que la Google Sandbox touche essentiellement les sites nouvellement créés. Il semblerait que ce filtre serve de "test" à l'algorithme pour juger de la pertinence d'un site.

Le phénomène observé est le suivant : il se manifeste souvent quand un nouveau site se voit attribuer un apport soudain de backlinks. La première phase est que le site semble "disparaître" des SERPS.

Cette disparition est dure souvent pendant un multiple de 3 mois (3 mois, 6 mois, 9 mois, 1 an).

Eh oui, malheureusement une sandbox peut durer une année... Il est difficile d'admettre que son site est filtré et ne ressortira pendant une longue période, cependant la meilleure manière de sortir de la sandbox est de... ne rien faire !

Il vaut mieux continuer à travailler son site normalement et surtout, ne pas le suroptimiser car cette attitude semble "enfoncer" davantage votre site dans la sandbox.

Comme toujours, restez naturel...


Bien que l'apport irréguliers de backlink peut sembler suspect et affoler l'algorithme au point de mettre un site en sandbox, il n'y a pas de limite réellement connue.

En effet, les équipes de Google se placent toujours à la place d'un internaute, il serait invraisemblable de pénaliser un site qui est sous le coup d'un grand buzz.

Ce n'est donc pas à mon sens en terme de quantité qu'il faut faire attention, mais plutôt en terme de régularité.

Si un site a l'habitude d'obtenir une centaine, voire plus de backlinks par semaine... Dans la logique de l'algorithme, il faudrait que cette cadence soit constante.


A priori non, en tout cas pas de manière automatiquement.

Google a reconnu que des liens réciproques pouvaient "se faire" naturellement sur le web.

Ce qui peut être pénalisé (ou dévalué) serait plus certainement un réseau de liens à grande échelle cherchant à manipuler les résultats des moteurs et à populariser totalement artificiellement un site web.


Google a reconnu que des liens réciproques pouvaient "se rencontrer" naturellement sur le web.

On peut supposer que Google est capable de repérer un réseau artificiel de liens et de dévaluer la valeur de ces liens.

Toutefois, de multiples sites ont mis en place depuis de nombreuses années des échanges de liens de type A->B / B->A et semblent obtenir de bons résultats.


Certains liens en javascript sont suivis par les robots des moteurs de recherche, d'autres non.

Généralement, il est nécessaire de pouvoir lire dans le code javascript le lien en entier.


Google recommande de mettre en place Nofollow sur des liens dont vous ne pouvez pas garantir la qualité.

Par exemple, un espace sans modération où il est possible de poster des liens

D'un point de vue purement SEO, nofollow ou pas, cela ne changera à priori rien à la distribution du pagerank sur votre site.


A priori non.

Toutefois, naturellement un site doit obtenir des liens provenant de d'adresses IP différentes.

De nombreux liens en provenances d'une et une seul IP peuvent certainement paraître suspicieux.


D'après Google, il n'y a pas de traitement de faveur en fonction de la TLD.

Toutefois, les extensions géolocalisées permettent de rattacher un site à une version locale d'un moteur de recherche. Par exemple un .fr sera rattaché automatiquement à Google.fr


Il existe plusieurs manières de procéder, voici 2 exemples :

Fichier htaccess :

Redirect permanent /index.php http://www.domaine.com

Redirection PHP :

Header( "HTTP/1.1 301 Moved Permanently" );
Header( "Location: http://www.domaine.com" );


Le choix d'un nom de domaine est avant tout une question d'ordre stratégique.

Dans tous les cas, il est indubitable que la présence de mots clés dans un nom de domaine est un avantage pour se positionner sur ces mots clés.

Toutefois, il est parfaitement possible de se positionner sans bénéficier de cet avantage...


Non, cela n'est pas indispensable.

Toutefois, il est préférable dans tous les cas de ne pas proposer des URLs avec de nombreux paramètres exotiques et il est largement préférable pour les internautes de pouvoir lire les URLS à l'aide de mots clés.


Un sous domaine sera considéré par les moteurs de recherche comme un nouveau site.

Vous ne pourrez pas alors bénéficier de la popularité du domaine existant.

Cela ne veut pas dire qu'il faille toujours préférer la solution d'un répertoire.

Cette question est donc à traiter au cas par cas.


Il n'y a aucune incidence entre une URL en .html, en .php ou encore en .aspx. Les moteurs savent lire les mots clés contenus dans une URL à condition de bien séparer les mots importants par des tirets.

Petit rappel : Il est inutile de surcharger vos URLs de mots clés, au risque de vous voir pénalisé.


Pour changer de nom de domaine sans perdre ses positions dans Google, il faut effectuer une redirection permanente de type 301 en s'assurant que la totalité des anciennes URL soient bien redirigées vers les nouvelles.


Malgré les nombreuses avancées des moteurs de recherche et spécialement de Google, le flash pose encore de gros problèmes.

Il est nécessaire de proposer une alternative HTML au flash. Cette alternative, consultée par les internautes n'ayant pas flash et donc les moteurs de recherche doit être le plus proche possible de la version flash (hors animation bien entendu) en terme de contenu.

Le balisage HTML utilisé doit être cohérent avec ce qu'affiche le flash.

Comme toute page web, il est nécessaire de proposer une URL distincte par page avec un contenu personnalisé (title, description, texte...).

Il est recommandé d'utiliser les librairies swfadresse et swfobject.


Techniquement, pour réaliser un site multilingue, on peut générer des répertoires du type : www.monsite.com/en ou des sous répertoires du type en.monsite.com.

Cette 2ème solution est préférable pour distinguer les backlinks provenant de sites étrangers et pour séparer vos contenus.

Il semblerait que la localisation physique du serveur hébergeant le site peut donner une indication aux moteurs sur la langue à détecter mais cette donnée n'est pas déterminante. En effet, par exemple, nombreux sont les webmasters français à préferer un hébergement américain avec un prestataire qui propose des offres plus avantageuses...

La technique en elle même reste la même que pour n'importe quel site : à savoir qu'il faut privilégier de mettre l'accent sur le contenu et les backlinks dans la langue ciblée.


La solution la plus simple est certainement de ne pas créer de session pour les robots des moteurs de recherche et si possible d'éviter d'ouvrir une session dès le début de la navigation mais plutôt d'attendre une identification.


Plusieurs indicateurs peuvent indiquer qu'un site est blacklisté :

  • Votre site perd en trafic, visites, audience... parfois jusqu'à 90% de perte
  • Vous constatez que le site ne ressort plus sur ses mots clés habituels, notamment ceux à fort potentiel
  • La commande info: ne retourne rien
  • La commande site: montre une désindexation de vos pages

Il faut tout d'abord nommer l'attribut alt qui décrit l'image avec les mots clés les plus pertinents : par exemple alt"Le restaurant La bonne fourchette est représenté sur cette photo"

Pour augmenter son positionnement sur Google Images, il est également préférable que le contexte où est placé l'image contienne les mots clés visés.

Nommer son image avec le mot clé qui nous intéresse : par exemple restaurant.jpg pourrait aussi être un plus.


La technique pour référencer un "petit" site et un "grand" site est fondamentalement la même. Cependant un gros site qui a acquis depuis des années un positionnement doit être traité avec précaution pour ne pas perdre les acquis.

Le premier réflexe à avoir est de ne jamais changer drastiquement un site Internet. Surtout, si vous changez de structure, allez y par "à coups" si vous le pouvez, pour pouvoir tester la réaction des moteurs.

Un précaution est indispensable : pour tout mouvement de pages, n'oubliez pas d'effectuer des redirections de type 301 pour que les robots puissent retrouver vos pages et leur "vécu".

Il se peut que votre site subisse des pertes de trafic durant 2 ou 3 semaines, mais toutes vos positions devraient revenir très vite si vous avez bien effectué vos redirections.


Le métier de référenceur peut contenir de nombreuses extensions (rédacteur web, webmarketeur...) mais le corps de métier principal reste d'assurer le positionnement des mots clés générant du trafic ciblé sur les moteurs de recherche


Jusqu'à très récemment, il n'existait pas de formation pour apprendre le référencement en France.

Cependant, l'IUT de Mulhouse a inauguré en septembre 2008 la première licence professionnelle de référenceur et rédacteur Web.

La très grande majorité des référenceurs (pour ne pas dire la totalité) s'est donc formée grâce aux sites spécialisés (blog, forum...) et aux conférences données par des experts ou des intervenants qui ont de l'expérience.

Le référencement est en effet un métier empirique, et le test reste la meilleure méthode pour apprendre.


Le salaire d'un référenceur dépend notamment du type d'entreprise dans laquelle il travaille : En agence ou chez l'annonceur. Il dépend également du champs de compétence du référenceur, s'il se cantonne uniquement au SEO, s'il fait du SEA, s'il se place comme consultant ou comme partie intégrante de la main d'oeuvre...

Les dernières études françaises révèlent que les référenceurs juniors évoluent sur des salaires de 25k€/an, les référenceurs confirmés se situent autour des 35k€/an et les référenceurs experts tournent autour des 50k€/an.

Bien sûr ces grilles de salaires ne font pas autorité et sont données à titre indicatif.


Au risque de vous décevoir... les référenceurs n'ont pas de secret en tant que tel.

Les référenceurs ne disposent pas de trucs et astuces autres que ceux évoqués dans les nombreux sites et forums dédiés au référencement.

Il faut savoir que votre prestataire ne bénéficie pas de secrets particuliers ni de connexion avec les moteurs de recherche.

Cependant, tous les référenceurs ne sont pas égaux. Le référencement d'un site Internet passe par une expérience empirique, et c'est bien cette expérience qui fera la différence.

Un bon référenceur est un référenceur qui aura testé de nombreuses techniques, repoussé des limites, aura vu ce qui fonctionne et ce qui ne fonctionne pas, ce qui peut pénaliser un site... Également, un bon référenceur se démarque par ses aptitudes à trouver de bons liens pour propulser un site, ou à établir des structures internes efficaces.


SEM, SEO et SEA sont des acronymes anglophones. Bien qu'ils se ressemblent, ils parlent de sujets différents et il est important de faire la distinction.

SEO = Search Engine Optimization, soit optimisation des moteurs de recherche ou plus simplement : référencement. Il s'agit d'optimiser son site pour qu'il apparaisse dans les résultats naturels des moteurs de recherche.

SEA = Search Engine Advertising, à la différence de la définition précédente, il s'agit d'optimiser les résultats des liens sponsorisés (payants)

SEM = Search Engine Marketing, pour faire simple SEM = SEO + SEA, soit toutes les techniques permettant d'optimiser sa visibilité sur les moteurs de recherche.


SMO est un acronyme anglophone pour Search Media Optimization.

Il s'agit de toutes les techniques existantes pour promouvoir votre site Internet, votre image, votre réputation, votre marque... sur les sites de médias sociaux.


Le SEO Black Hat englobe toutes les techniques sensibles ou proscrites par les moteurs de recherche.

Ce sont généralement des techniques qui peuvent conduire à la pénalisation d'un site Web, il faut savoir les utiliser avec précaution.

Cependant, utiliser des techniques SEO Black Hat peut être un excellent moyen de gagner énormément de temps sur le travail de votre référencement. Il faut savoir qu'en contrepartie, ces techniques ne sont pas pérennes si vous êtes découvert...

Voici quelques techniques Black Hat : le spam, le cloaking, le keyword stuffing (bourrer des balises de mots clés)...


Une page satellite est une page crée "artificiellement" dans le but d'être plus visible par les moteurs de recherche.

Ces pages satellites redirigent ensuite l'utilisateur vers une autre page du site.

Cette technique est interdite par les moteurs de recherche.

Par extension, une page satellite peut également définir une page créée dans le but de placer du contenu et des liens pour rendre son site plus visible.

A noter que cette définition ne fait pas l'unanimité.


Le cloaking est une technique permettant d'afficher un contenu différent en fonction de l'entité demandant sa consultation.

En clair, grâce au cloaking, il est possible de présenter une page différente aux robots des moteurs de recherche et aux êtres humains.

Le cloaking est une technique dite "BlackHat" si elle est utilisée aux fins de tromper les moteurs de recherche, par exemple en bourrant une page de mots clés sans queues ni têtes.

Le cloaking est donc une technique sensible qui mal utilisée peut conduire à la pénalisation d'un site Internet.

De manière générale, Google estime que les robots des moteurs de recherche doivent voir la même chose que les êtres humains.


Un datacenter est un centre de données où sont stockés un nombre important de serveurs.

Les datacenters constituent le coeur de l'organisation des moteurs de recherche. Quand vous effectuez une recherche sur un moteur de recherche, c'est souvent le datacenter le plus proche de votre domicile qui se charge de vous fournir les résultats appropriés à votre demande. Si le datacenter le plus proche est occupé, un autre datacenter prendra alors le relai pour vous répondre.

Les datacenters sont répartis dans le monde entier et sont constitués de dizaines de milliers de serveurs pour faire face au volume incroyable de recherches effectuées tous les jours sur la planète.


Le Linkbaiting est un terme anglophone qui pourrait se traduire par "pêche aux liens".

Obtenir des (bons) liens est la problématique principale des référenceurs car ce critère est prépondérant dans le calcul du positionnement d'un site. L'idée du Linkbaiting est donc d'obtenir de nombreux liens pointant vers son site, de toutes les manières possibles et inimaginables en fonction de sa créativité et ses moyens.

L'idée est surtout de donner envie aux internautes de faire d'eux même des liens vers votre site.

Le Linkbaiting rejoint les techniques de Marketing et de Communication.

Quelques exemples de Linkbaiting : créer un jeu concours, faire parler de soi grâce à du buzz, créer un service/produit innovant, proposer du contenu original à ses internautes...


Un snippet est une portion de code ou de texte extrait d'un ensemble.

Dans le langage des moteurs de recherche, le snippet est le petit texte servant à décrire un site dans une page de SERP (entre le titre et l'URL du site).


SERP est un acronyme anglais pour Search Engine Result Page.

On peut traduire cela par : Page de résultats d'un moteur de recherche. Clairement, il s'agit de la page de résultats retournée par les moteurs de recherche quand on tape une requête.

Ce terme est régulièrement utilisé par les référenceurs quand ils analysent les mouvements de ces pages pour essayer de comprendre le fonctionnement de l'algorithme des moteurs de recherche.


Heureusement (ou malheureusement pour vous ?), le fonds de commerce de Google est axé sur la pertinence des résultats et cela ne fonctionne pas comme cela, on ne peut "soudoyer Google".

Pour ne pas fausser les règles de concurrence, les sites sont positionnés en fonction de leur "pertinence" seule, jugée grâce aux critères de pondération de l'algorithme de Google.

Il ne faut pas confondre "donner de l'argent à Google" et "liens sponsorisés", ces derniers sont effectivement payants et permettent d'afficher des annonces selon un système d'enchère.


La méthode la plus efficace sera de suivre les blogs et forums américains.

L'actualité la plus fraiche et la majorité des articles de fond sont souvent publiées outre-atlantique.

Du coté français, voici deux sites qui proposent chaque jour ou presque le meilleur de l'actualité du référencement.

Il existe également de nombreux blogs.

Contact

  • 15 rue Emile Zola
    69002 Lyon, France
  • 04 78 42 05 56