samedi 11 avril 2015

Astuces PageRank et algorithme google

Refeo.com 200 facteurs de ranking sur Google :

Le mode d'emploi de Google. Détaillé. Il y a quelques jours, je discutais avec quelqu'un qui me demandait quel métier je faisais. En général, je me dérobe à la question en répondant que je bosse dans la pub sur internet. Et cette partie de la conversation s'arrête là. La plupart du temps. 

Parfois il arrive qu'un curieux pousse le sujet plus loin et me demande ce que je fais précisément. "Je fais monter les sites dans Google". Avec une probabilité de plus de 99% la question qui suivra sera : "Et alors, c'est quoi le secret ?". Mon job il est simple dans les faits. Je cherche la recette du Coca-Cola de Google qui change tous les trois jours et qui comporte énormément d'ingrédients. 

Un jour Google a même reconnu que le fameux algorithme, en plus d'être d'une complexité affolante, comportait pas moins de 200 critères... A force de lectures, d'expérimentations, d'expériences, d'hypothèses et de conjectures, beaucoup de SEO ont fini par avoir une idée assez fine de la chose, en tout cas suffisamment pour pouvoir rentabiliser leur travail pour un client. J'ai donc essayé de récapituler l'état actuel des connaissances. Evidemment, je ne détiens pas la vérité mais j'ai recoupé de nombreuses sources. Certains critères sont probablement justes mais difficile de voir avec précision quel poids ils peuvent avoir. 

Donc si vous avez des objections, les commentaires sont là pour cela ! L'ordre de classement a peu d'importance, mais j'ai essayé de donner un poids (de 1 à 3 étoiles) à chaque critère. Les sources indiquées sont les endroit où j'ai pu trouver des infos utiles pour le point considéré. Evidemment, la seule véritable source serait Google, mais hormis quelques déclarations sibyllines de Matt Cutts, on manque un peu d'information ! Edits : 05/06/2014 : ajout des sources en fin d'article, commentaire sur l'article de Backlinko, point 192 mis à jour suite à commentaire, ajout de la source gdecode.com Référencement sur mobiles et tablettes

1. Age du domaine

L'ancienneté d'un site joue en sa faveur. Pour en tirer encore un meilleur parti, conservez la thématique tout au long de sa vie du site, ajoutez du contenu et faites des mises à jour de vos meilleurs contenus. Source : ​http://www.youtube.com/watch?v=-pnpg00FWJY (voir ci-dessous)

2. Exact Match Domain

L'exact Match Domain a longtemps été un outil permettant de positionner un site sans trop d'effort sur son l'expression clé correspondant exactement à son nom de domaine (telephone-pas-cher.com par exemple). C'est beaucoup moins vrai depuis l'EMD update de Google en octobre 2012... sauf si votre site est considéré comme "qualitatif". Source : ​http://searchengineland.com/google-emd-update-research-and-thoughts-137340

3. Contient des mots clés
Même principe que l'EMD mais en - nettement - moins performant. Source : http://www.seomoz.org/article/search-ranking-factors#metrics

4. Mots clés en premier
Si vous devez placer des mots clés dans votre nom de domaine, positionnez-les en premier. Un (très) léger bonus pourra jouer en votre faveur.

5. Mots clés dans le sous-domaine
Même principe que pour les mots clés dans le domaine, mais avec encore moins de poids !

6. Historique du domaine

Moins le domaine a changé de propriétaire mieux c'est. Une certaine stabilité est préférables aux yeux des moteurs, qui y voient un signe (minime) de qualité. Thus my verdict to the whole dispute is as follows : Website age (and its backlink profile age) is what really matters Domain age can play a minor part only as damping factor – i.e. one of the factors signaling the search engine that this might be a spammy / illegitimate site Old domains may carry more weight due to their past records (i.e. old backlinks pointing to them) Ann Smarty Founder at Viral Content Buzz

7. Enregistré pour longtemps
Partant du principe que les spammeurs du web utilisent des domaines pour une durée courte, une réservation d'un domaine pour une longue durée est un signe de qualité.

8. Whois non anonyme
Pour un moteur de recherche (Google possède aussi un réseau social...), l'anonymat est suspect ! Source : http://www.searchenginejournal.com/seo-question-do-whois-privacy-services-harm-seo/5874/#comments

9. Propriétaire non pénalisé
Si vous avez abusé à maintes reprises des faiblesses de Google et qu'il vous a détecté plusieurs fois, la fois suivante vous rendre aussi suspect !

10. Extension adaptée
Il existe deux types d'extensions : les génériques (.com, .net, .org, .travel...) qui ne sont pas rattachée à une zone géographique et les nationales (.fr, .co.uk, .be...) qui indique au moteur de recherche dans quel pays vous évoluez. Prenez soit une extension généraliste soit une du pays que vous visez. Dans le cas d'un site à vocation internationale, seul le générique est possible. Source : www.visibilitymagazine.com/revenews-com/ct-moore/international-seo--the-ins-and-outs-of-ranking-in-different-countries

11. Pas de frame

Les frames, cadres en français, sont une structure de site obsolète qui posait des problèmes aux moteurs. A ne pas confondre avec les iframes, acceptables pour intégrer des contenus vidéos par exemple. Un bon audit SEO doit vous mettre à l'amende sur ce point !

12. Recours limité au flash v

Le flash permet des fonctionnalités que le html 5 commence tout juste à proposer. Pour ses avantages esthétiques, certains sites ont été réalisés intégralement en flash. C'est à proscrire car même si des techniques existent, le flash reste mal parcouru par les moteurs. Pour résumer, le flash c'est mal. Et quand c'est bien, c'est mal quand même. 13. Pages accessibles par des liens


Le robot des moteurs de recherche parcourent un site en allant de page en page grâce aux liens qui les relient. Donc si vous voulez leur faciliter la tâche, faites en sorte que toutes vos pages utiles soient accessibles en cliquant depuis la page d'accueil.

14. Sitemap du site fourni

Le plan de site est un fichier à créer et fournir aux moteurs pour leur permettre de trouver plus facilement les pages à indexer. Si certaines pages ne sont pas accessibles par des liens (par exemple des pages créées suite au remplissage d'un formulaire) le ou les plans de sites vont s'avérer utiles.

15. Fraîcheur du sitemap
Un plan de site doit aussi être à jour. Inutile de le rafraîchir chaque heure, mais une fois par semaine me paraît un bon rythme.

16. Urls sans paramètre de session
Les paramètres de session sont une technique obsolète pour identifier un visiteur et contrôler les accessibles. Malheureusement, ces paramètres perturbent le parcours des robots qui peuvent se trouver de nouvelles pages à chaque visite ce qui fait obstacle à leur bonne compréhension du site.

17. Contenus lisibles par les robots

Les robots des moteurs doivent pouvoir lire les contenus proposés. Ainsi si vous mettez dans vos textes dans des images, des vidéos ou du flash, vous privez quasi totalement les robots du contenu de votre site.

18. Présence d'un fichier robots.txt

Un fichier robots.txt placé à la racine du site va donner aux moteurs de recherche des directives sur ce qu'ils doivent indexer ou non. C'est un signe de qualité et la possibilité d'éliminer des répertoires entiers à ne pas visiter (back office par exemple). Attention, cela n'empêche pas un utilisateur malicieux de voir quels accès vous interdisez dans votre fichier robots.txt et d'y aller lui-même !

19. Contenus pdf sélectionnables

Si votre site présente une partie de ses contenus sous formes de fichiers pdf, il est préférable que le contenus de ces derniers soit lisible. Pour valider cela, vérifier que vous pouvez copier / coller le texte. Attention à ne pas doublonner vos contenus par vos pdf. Chaque contenu doit être différent (sinon désindexez les pdf en contenu dupliqué)

20. Thématique des pages émettrices

Idéalement un lien d'une page doit envoyer vers une page en relation avec la thématique. C'est un des principe de base des cocons sémantiques, pour les puristes.

21. Ancres descriptives

Sur les liens internes, vous devriez ancrer sur des expressions clés si possible. Les ancres génériques ("cliquez ici") sont moins performantes. Source : http://googlewebmastercentral.blogspot.fr/2008/10/importance-of-link-architecture.html

22. Volume de liens internes pointant vers la page


Les liens internes sont une façon de prioriser vos pages et Google en tient compte.

23. Thématique des liens sortants


Aux yeux des moteurs de recherche, un article utile doit indiquer des sources et/ou vous proposez d'autres contenus sur le même sujet. Je pense même que faire un lien vers des concurrents peut vous aider... Mais les aidera aussi ! 24. Nombre de liens sortants

Trop de liens sortants est suspect. Quelle limite reste acceptable ? Difficile à dire. Pour moi, c'est lié à la qualité du contenu. Le ratio volume de texte sur lien doit rester raisonnable. Si vous avez une bonne raison de faire beaucoup de liens sortants, passez-les en nofollow (solution 0 risque) ou paginez votre contenu.

25. Notoriété des liens sortants
Pointez vos liens sortants vers des sources de qualité. Si vous manquez d'inspiration, pointez aussi vers wikipedia, youtube et des réseaux sociaux. Source : http://www.seomoz.org/blog/external-linking-good-for-seo-whiteboard-friday It appears this might be a good strategy. The thing you have to be careful about with this strategy is your anchor text. If you are trying to rank for red boots and you link out using that red boots anchor text, that is probably not going to help you. You have to be a little creative with that. Cyrus Shepard Senior Content Producer, Moz

26. Site liés non douteux
Ne pointez pas vers des sites avec des virus ou dans des thématiques honnies par Google (pornographie, médicaments bleus, etc). Si vous devez le faire, utilisez du nofollow, cela lèvera toute ambiguïté

27. Pas de contenu dupliqué interne


L'écueil majeur des sites e-commerce. Vous vendez des produits très proches, vous utilisez donc les mêmes descriptifs... Évitez cela, débrouillez vous pour différencier le contenu des pages en question, quitte à paraphraser. Oui, c'est du boulot.

28. Conformité W3C
Les puristes jugent cela assez important, pas moi, simplement parce que le respect d'une norme technique n'implique pas nécessairement que le contenu soit qualitatif. Focalisez-vous sur la rapidité du serveur et l'expérience client. Le W3C attendra.

29. Longueur des urls profondes

Évitez les urls à rallonge en les truffant de mots clés. C'est une technique obsolète. Utilisez l'url rewriting, oui, pour faciliter la lecture des urls par le visiteur (même si les navigateurs tendent à les masquer...) et faites court et significatif. Supprimez notamment les stop words ("à", "de", etc.) qui alourdissement. Source : Search Quality Rating Guidelines Version 1.0 November 2, 2012, page 40 Search Quality Rating Guidelines Version 1.0 November 2, 2012 Note : ce document provient des services des Google. Il est (était ?) fourni aux employés chargés d'évaluer manuellement la qualité d'un site. Ces personnes appelées "Quality Raters" sont au final ceux qui vont pallier les manques de l'algorithme de Google. Dans la mesure où ces ressources sont limitées, Google les emploie sur des requêtes à fort trafic et à fort risque de spam.

30. Pages peu profondes

Comptez le nombre de slashs ("/") après votre nom de domaine. Au delà de trois ou quatre, vous êtes allé trop loin ! (prenez un autre expert SEO, il aura probablement un point de vue différent...)

31. Urls en sous-répertoires

Consigne officielle de Google, si un internaute coupe votre url profonde après un slash, la page ne doit pas renvoyer une erreur. Dans l'exemple d'un site e-commerce avec des catégories et sous-catégories, cela doit le renvoyer vers la catégorie supérieure. En général c'est désormais supporté nativement par les logiciels comme magento ou prestashop (le référencement de sites e-commerce pose souvent des difficultés spécifiques). Note : la vidéo ci-dessous traite plus spécifiquement du formatage des urls profondes.

32. Usage des microformats


Une vraie priorité ! Foncez sur schema.org et bossez le sujet. Jetez ensuite un coup d'oeil vers les plugins ad hoc et mettez cela en place. Le but est de qualifier votre contenu pour en faciliter la mise en base de données et sa restitution dans les résultats de recherches. Gros signe de qualité dont l'importance va aller croissante. Sans compter les affichages sympathiques dans les résultats de recherche ! Pour aller plus loin : lisez mon (court) post sur le sujet : Optimiser son référencement naturel avec les rich snippets.

33. IP géolocalisée
Si vous avez la possibilité d'héberger votre site sur une adresse IP géolocalisée dans le pays où se trouve votre clientèle, c'est mieux. Quid du site international ? Faut-il une IP par pays ? Non, à mes yeux, l'investissement que cela représente me paraît disproportionné au regard du bénéfice attendu en terme de référencement naturel...

34. Meta Robot en index, follow
La base : autoriser les robots à visiter et indexer votre site. Vous trouvez cela trivial ? J'ai vu un site à 150 000 euros qui après développement et lancement officiel n'avait pas corrigé ce point. Résultat, le site n'était pas indexé du tout !

35. Déclaration Google Webmaster Tools

Moins les "spammeurs" se donne la peine de faire quelque-chose, plus vous devez essayer de le faire pour votre site. S'inscrire à Google Webmaster Tools (GWT pour les intimes) va non seulement mettre votre site sur Google plus vite mais surtout va montrer à Google que vous prenez au sérieux la gestion de votre site. En prime vous aurez de précieuses informations sur votre positionnement de site.

36. Google Analytics

Au delà de l'aspect quasi vital de suivre vos statistiques de trafic, vous envoyez à Google un signal sur votre volonté de suivre votre site.

37. Langues correctement séparées

Si vous avez un site multilingue, assurez-vous que les langues sont bien repérées dans le head de vos pages. Un robot qui "hésite" prend souvent la décision de ne pas classer correctement une page. Source : http://www.stateofdigital.com/factors-for-international-seo/

38. Langues repérées par norme IANA
La norme IANA vous précise comment chaque langue doit être repérée. Évident ? Oui, mais ce serait d'autant plus bête de ne pas jouer le jeu !

39. Balise canonical

L'arme #1 anti duplicate content. Vous indiquez aux robots quelle version de la page ils doivent utiliser... Et donc celles qui ne sont pas utiles. Encore un signe de qualité on-site !

40. Balise link rel prev/next

Dans le cas de longs articles, vous pourriez avoir envie de paginer (ce qui a pour effet d'augmenter votre nombre de pages vues pour un même article, utile pour des sites dont le modèle économique est la publicité en display). Google a aussi prévu cela et vous donne les consignes ad hoc. En vidéo s'il vous plaît ! Source : https://support.google.com/webmasters/answer/1663744?hl=fr

41. Balise alt des images

A l'origine la balise alt sert à améliorer l'accessibilité des sites aux personnes déficientes visuellement (leur navigateur "lit" le alt des images). Évidemment le référenceur SEO de base a encore vu là une occasion de mettre des mots clés... Et c'est toujours d'actualité. Sauf qu'il faut le faire sans excès : un peu de mots clé mais surtout une description pertinente, qui vous évitera le keyword stuffing.

42. Nom des fichiers image
L'idéal est de nommer les fichiers images avec des noms explicites. Img001.jpg est moins utile que chat-chevauchant-licorne.jpg. (Je serai curieux de voir une telle image... Tiens en voilà une. C'est fantastique Internet.)

43. Titre de la page en rapport avec le contenu


La base du SEO, la balise title. Toujours incontournable, elle devient plus complexe à gérer. Ici encore, privilégiez d'abord le visiteur avec un titre accrocheur. Si vous réussissez à mettre des mots clés c'est encore mieux. L'important restant un titre en accord avec le contenu de la page. Le fait de marquer partout mp3 sur site qui ne traiterait que de photographie serait pour le moins mal vu.

44. Balises titre différentes


D'une page à l'autre, vous devez varier les titres. Méthode 1 : le même titre partout. C'est non. N'insistez pas. Méthode 2 : des titres automatisés. C'est acceptable si vous faites un minimum d'effort pour rendre les choses naturelles. Méthode 3 : un titre 100% manuel. Le top mais pas toujours réaliste sur un site e-commerce avec 20000 produits (par défaut le titre est souvent le nom du produit, repris en général en balise h1, c'est moyen mais acceptable si vous n'avez pas le temps de faire mieux)

45. Mots clés en gras

Le gras indique une mise en avant. Les expressions en gras auront donc un poids perçu par le moteur comme plus important.

46. Mots clés en italique
L'italique met en évidence aussi un contenu (souvent un citation ou une référence). C'est un bon moyen de démarquer vos expressions clés... tant que vous n'abusez pas ! Vous octroyez ainsi un - léger – bonus à ce contenu.

47. Meta descriptions différentes


Tout comme les titres, vos meta descriptions doivent être différentes d'une page à l'autre, même si vous avez l'impression que Google les réécrit pour vous, c'est un critère de qualité incontournable.

48. Mots clés dans la meta description
Inutile d'un strict point de vue optimisation de site web en SEO. Les moteurs ont clairement indiqué depuis longtemps ne pas prendre en compte ce critère. Certes, mais dans les résultats de recherche, les mots clés tapés par l'internaute présent dans votre meta description sont mis en gras, ce qui attire le clic et vous bonifie pour taux de clic plus élevé. Un peu alambiqué, mais réel.

49. Fraîcheur du contenu


Il existe même une option de recherche directement dans Google pour ne visualiser que les résultats les plus frais. En résumé, un contenu récent est mieux apprécié qu'un contenu ancien car potentiellement obsolète. Pour relancer un vieil article, n'hésitez pas à la mettre à jour en profondeur, vous bénéficierez de l'ancienneté et de la fraîcheur ! Source : http://googleblog.blogspot.com/2010/06/our-ne vw-search-index-caffeine.html

50. Taille des mises à jour

Une mise à jour de page se doit d'être suffisamment consistante. Un mot de changé ne suffira évidemment pas. Quelle est la bonne dose ? Difficile de le dire, mais je pense qu'un tiers peut être représentatif.

51. Fréquence de mise à jour
Un bon contenu est frais mais aussi régulièrement augmenté.

52. Orthographe

Oui, l'orthographe d'une page doit faire partie des critères d'évaluation, pour au moins deux raisons : 1) une orthographe déplorable nuit à l'expérience utilisateur. 2) Cela doit insinuer un doute sur le caractère qualitatif de la chose. Évidemment, une faute ou coquille de temps à autre ne va pas remettre en cause la page (sinon je serai bien embêté !). A l'époque de gloire des skyblogs, ils ne remontaient pas dans les pages de résultats alors qu'il y avait plusieurs millions de pages de contenu unique... mais bourré de fautes. Allez, pour le fun, un exemple assez musclé de ce que j'évoque ci-dessus. (Je suis allé le chercher en page 10 de Google...)

53. Pas de contenu dupliqué externe


Un point fondamental. Si votre contenu existe déjà ailleurs sur le web, votre contenu sera ignoré (mis dans "l'index secondaire" de Google, ce qui revient au même). Votre contenu doit être unique. Si vous devez reprendre quelque-chose mot pour mot, commentez-le pour diluer la copie.

54. Pas de contenu dupliqué interne


Éviter la multiplication des pages ayant une url différente mais un contenu identique. C'est souvent délicat car les sources de contenu dupliqué interne sont nombreuses (je pense navigation à facette et paramètres d'urls). Deux solutions : Google Webmaster Tools et la balise canonical.

55. Usage d'images

Un contenu un minimum travaillé contient forcément des images. Les études sur l'engagement sur Twitter montrent ainsi qu'un tweet avec une image améliore le taux de retweete. Ce qui est vrai sur Twitter l'est aussi probablement ailleurs et doit être utilisé comme indicateur par Google. Source : https://blog.twitter.com/2014/what-fuels-a-tweets-engagement

56. Usage de vidéos
L'usage d'images dans un contenu en renforce l'intérêt. Par extension on peut penser qu'il en va de même pour la vidéo. Sans compter que Google gagne de l'argent avec la publicité sur youtube, premier support de vidéo. Donc privilégier la vidéo c'est indirectement faire du chiffre d'affaires. Il n'y a pas de petits profits (que des gros en l’occurrence)

57. Vidéos optimisées (VSEO)
Tant qu'à utiliser de la vidéo, autant bien l’optimiser Cette branche du SEO, appelée VSEO, permet de gagner de la visibilité dans les résultats de recherche. Certes les vidéos n'occupent que 1 à 2 résultats, mais elles sont fortement mises en avant. Donc jouez cette carte, le optimiser le référencement naturel de vidéos n'est pas très complexe : taggez proprement, décrivez en 300 mots minium avec des mots clés. Et des vues. C'est bien aussi des vues (au moins pour l'ego).

58. Absence de liens cassés

Un lien cassé est un indicateur de mauvais entretien d'un site. Surveillez cela, vous donnerez une bonne image de votre site (à Google et vos visiteurs). Pour WordPress le plugin Broken Link Checker scanne vos contenus et vous alerte. Sinon, des outils comme Xenu vont aussi vous aider.

59. Niveau de lecture
Une approche linguistique d'un texte permet de déterminer le niveau de celui-ci, à savoir s'il est destiné à des experts ou au contraire à des débutants (pour les curieux, testez le logiciel "Cordial"). Il n'est pas impossible que Google mette en relation des requêtes d'un certain niveau avec des contenus adaptés.

60. Ancienneté du contenu mis à jour
Un contenu âgé présente un risque d’obsolescence Mais s'il le bon goût d'être actualisé sur une base régulière, il bénéficie d'une valuation basée sur son ancienneté et sur le fait qu'il est mis à jour. Il reste à déterminer quel part d'un contenu doit être mis à jour pour être perçu comme rafraîchi !

61. Présence de sources citées
Un bon auteur cite ses sources (autant que possible !). Cette règle élémentaire est aussi une façon de montrer la qualité d'un contenu.Donc si vous avez des infos que vous reprenez d'autres sites, n'hésitez pas à les lier. Je conseille même de mettre explicitement le mot "sources" pour clarifier la chose. 62. Pertinence des sources citées
Règle plutôt facile à suivre, si vous citez des sources, faites en sorte qu'elles soient pertinente. Faire un lien sortant vers une source discutable pourrait être mal perçu.

63. Fraicheur de la page sur certaines requêtes


La fameux "Query Deserve Freshness" ou QDF pour les intimes. L'idée est simple : sur certaines requêtes précises, l'internaute attend une information fraîche. Par exemple des résultats sportifs ou l'actualité. Donc la fraîcheur de la page est impérative pour ces requêtes et les gros sites d'actualités sont crawlés plusieurs milliers de fois par jours. Source : http://www.seomoz.org/blog/whiteboard-friday-query-deserves-freshness

64. Contenu tout public

Google fait toujours preuve d'une certaine pudeur voire pudibonderie. Si vous êtes sur des segments non pornographiques mais à risques (lingerie, sex toys, etc.), traquez les images qui pourraient vexer notre moteur de recherche. J'ai eu un débat avec l'équipe d'adwords pour un site de lingerie nous en étions arrivés à déterminer le degré de transparence pour qu'une poitrine passe du statut de dénudée à assez habillé (et classe le site en public averti plutôt qu'adultes seuls). Utilisez de petites masques aux endroits suspects. Oui, votre graphiste va être heureux.

65. Fournir un contenu utile


Oui, j'entends déjà les molles protestations de ceux qui sont arrivés jusque là. Comment définir "utile" ? Le guide interne pour les quality raters de Google ("examinateurs de la qualité") indique clairement qu'un bon contenu doit avoir une valeur ajoutée pour le lecteur. Alors au boulot !

66. Crédit des photos
Marginal mais possiblement favorable, le fait de créditer les auteurs de photos montre une bonne volonté quant au respect des contenus.

67. Modération des contenus utilisateurs


Essentiel au moins dans l'optique de ne pas se faire spammer. Un commentaire un peu trop flatteur et pas assez précis ? Suspect. Dans le doute supprimez tous les liens sortants ou mettez les en nofollow. Sinon Google peut devenir méfiant sur votre capacité à maîtriser le contenu généré par les utilisateurs. A titre d'exemple un site dont j'avais la charge en référencement sur Google était basé sur un wordpress. Le client l'a laissé en validation automatique. 15 jours plus tard, 9000 commentaires spammy et le site qui avait dégagé de quelques pages !

68. Présence de commentaires
Une page qui reçoit des commentaires (produits ou posts de blogs) montre d'une certaine manière qu'elle intéresse les visiteurs. De ce fait elle doit percevoir un petit bonus.

69. Avis clients certifiés


Utiles bien au delà du référencement naturel sur Google, les témoignages clients (à équiper en micro données) basés sur des plateformes en lesquelles Google a confiance sont un vrai plus. Dans visuellemetn dans les résultats de recherche qu'en terme de qualité de l'offre. Incontournable en e-commerce, plutôt malin sur un site vitrine, mais plus délicats à implémenter. Ci-dessous un exemple pour Trustpilot, mais il existe aussi ekomi, etc.

70. Mots clés dans le titre


Aussi vieux que le web, mais toujours aussi utile. La balise titre joue un rôle central dans le SEO (et doit contenir les mots clés prioritaires) mais un peu au-delà. C'est elle qui est affichée en bleu dans les résultats, donc elle doit aussi servir de support à votre communication. Quant à sa longueur, Google a changé puisqu'il n'affiche qu'un certain nombre de pixels, le reste étant tronqué. Pour éviter cela, limitez-vous à environ 50 ou 60 caractères. Oui c'est court, donc soyez concis !

71. Mots clés en début de titre
La position des mots clés dans le titre n'est pas équitable : positionnez si possible les plus importants en premiers.

72. Mots clés dans la meta description
Disons-le de suite, la présence mots clés dans la balise meta description n'a pas de poids direct au sein de l'algorithme de Google. Simplement Si vos mots correspondent à ceux de l’internaute, ils seront mis en gras et attirerons plus facilement le clic. De là à faire de votre meta description une suite de mots clés, ce serait une erreur : soyez plus subtil que cela, c'est un des seuls éléments qui permettra à l'internaute de choisir s'il clique sur votre site dans les résultats de recherche.

73. Mots clés dans la balise h1


Tout comme le titre, le h1 a un poids élevé dans l'évaluation d'une page. Insérez quelques mots clés, mais pensez d'abord à votre lecteur. Attention, une unique balise h1 par page. Et par pitié, pas sur un logo comme je l'ai souvent vu ! Pour aller plus loin : http://cbutterworth.com/do-h1-tags-still-help-seo/, une petite étude sur l'impact d'un h1 et des styles de celui-ci.

74. Mots clés dans les balises Hx

Sans avoir l'importance du h1, les balises h2 à h6 sont aussi des endroits où nicher des expressions clés issues de votre analyse sémantique Ces balises peuvent être utilisée plusieurs fois sur une même page. N'abusez pas de la longueur, on parle de titre, pas de paragraphes complets.

75. Densité supérieure des mots clés
Ce serpent de mer pour toute agence de référencement naturel n'est plus aussi vrai que par le passé. Il n'y a jamais eu de densité idéale, mais force est de constater que d'augmenter la fréquence des mots clés sur une page aide un peu. Gare à l'excès ! Au final je propose de varier avec des synonymes ou des mots du même champ lexical. Vous manquez d'inspiration ? Le générateur de mots clés Adwords peut vous aider. Ci-dessous le meilleur outil (gratuit !) pour analyser la densité, avec une exemple pour http://fr.wikipedia.org/wiki/Optimisation_pour_les_moteurs_de_recherche. Cliquez sur l'image ouvrir la page du site alyze.info

76. Richesse sémantique

La richesse sémantique est le fait d'utiliser des expressions différentes appartenant à une même thématique. C'est assez différent de la vielle méthode qui consistait à marteler la même expression. La subtilité devient nécessaire.

77. Mots clés dans les premiers mots
Vous avez parfois vu ces petites phrases en haut des sites, au-dessus même du header ? Elle étaient là pour placer tout en haut de la page des mots clés. Marginal mais pas forcément une mauvaise idée, au moins sur la home uniquement.

78. Présence de mots clés exacts


C'est évident mais j'aime enfoncer des portes ouvertes, c'est moins douloureux : pour bien référencer son site sur des expressions précises, c'est mieux de mettre les mots clés en questions.

79. Présence de mots clés proches

J'ai déjà évoqué l'aspect sémantique dans l'usage de vos mots clés, je le redis ici : variez.

80. Mots clés dans l'url
A l'avènement de l'url rewriting, c'était la triplette du bourrin (avec le titre et le h1). Aujourd'hui, vu les abus constatés (urls à rallonges...), je pense que ce n'est pas vital. Utilisez-le mais surtout dans l'optique d'améliorer la lisibilité de vos urls pour un utilisateur. La triplette du bourrin L’optimisation de base que la plupart des sites utilise est une répétition des mots clés prinipaux en trois endroits stratégiques : Title URL H1 J’appelle cela la triplette du bourrin. Rien de péjoratif dans cette définition, mais plutôt une évocation d’un manque de finesse certain dans l’optimisation et l’interconnexion de ces 3 éléments vitaux d’une page Web. Source : http://www.laurentbourrelly.com/blog/874.php . Laurent Bourrelly SEO Rockstar

81. Longueur du contenu sur la page
Certains se sont amusés à mettre en relation longueur d'un post de blog et position dans les résultats. Au final, 2500 mots semble être une bonne norme. Évidemment, c'est un résultat statistique. Mais l'idée de base est surtout que 100 ou 200 mots ne sont pas optimaux. Source : http://blog.serpiq.com/how-important-is-content-length-why-data-driven-seo-trumps-guru-opinions/

82. Nombre de pages


Je suis un fervent défenseur de cela. La taille d'un site (hors contenu dupliqué) vous aide. Pas forcément de manière directe mais je pense qu'il y a une corrélation entre nombre de pages et trafic naturel. Un site qui parle d'un sujet sur une page sera moins intéressant qu'un site qui se pose en bible sur le sujet. Pour aller plus loin, un e-commerçant qui propose 1000 références sur 30 marques recevra moins de trafic qu'un e-commerçant proposant 10 000 références sur 300 marques, la longue traîne jouant ici son rôle ! L'étude US téléchargeable : http://offers.hubspot.com/marketing-benchmarks-from-7000-businesses L'analyse en français de cette étude : http://ludismedia.com/comment-attirer-plus-de-trafic-vers-votre-site-web/

83. Pas de "shallow content"


Le "shallow content" (contenu faible) se caractérise par un volume de texte faible, quelques dizaines de mots. C'est assez fréquent pour un site ecommerce de manquer d'inspiration pour décrire sa 638è coque iphone. Hélas, il faudrait avoir ce courage d'écrire plus, même si c'est particulièrement fastidieux (voire punitif).

84. Fréquence d'ajout de contenu

Un bon site vit, s'enrichit et s'actualise. Un site qui produit fréquemment du contenu retiendra l'attention des moteurs.

85. Espaces publicitaires modérés


Google vend de la publicité. Beaucoup. Mais il préconise aussi de ne pas aller trop loin dans leur affichage. Un peu de pub, ok, trop non. Et je ne parle pas des modalités d'intégration d'adsense. Ci-dessous un contre exemple... de chez Google... Avec 80% de pub (une page de test a priori. Source : https://twitter.com/dr_pete/status/456446848224350209/photo/1

86. Contenu principal visible

Oui, cela paraît évident mais le contenu utile doit être visible immédiatement. Cela paraît évident, mais c'est une recommandation écrite dans les GuideLines de Google. Source : Guidelines de Google

87. Fil d'Ariane
Le fil d’Ariane va aider votre visiteur à comprendre la structure de votre site, à remonter dans les catégories, bref l'aider. Je vois déjà ceux qui essaie d'y mettre des mots clés. N'en faites pas une priorité. Aidez votre visiteur, le reste, ici, est superflu. Ci-dessous : l'exemple de Decathlon.fr qui en plus a le bon goût d'être utilisable pour l'internaute perdu. Exemple emprunté à http://www.blogoergosum.com/36432-web-footprints-decathlon-fr-un-e-commerce-efficace

88. Version mobile

Aujourd'hui la part du mobile dans les recherches reste faible, mais elle grandit vite et les visiteurs s'agaceront bientôt d'un site non responsive. Prenez les devants, je pense que cela aidera d'une manière ou d'une autre à l'avenir. Référencement sur mobiles et tablettes

89. Fil RSS
Le fil RSS permet à ceux qui le souhaitent de vous suivre. Un peu moins utile depuis Twitter ou autre, mais dans la mesure où c'est nativement intégré à la plupart des solutions open sources, mettez le en place.

90. Favicon
La favicon, c'est le détail qui va vous crédibiliser. A faire pour au moins développer votre marque.

91. 404 personnalisée

Ne vous leurrez pas, vous avez forcément des visiteurs qui y passeront. Alors soignez-les aussi. C'est Google qui le dit. Vous pouvez même jouer avec cette page (404 lemmings de http://www.romainbrasier.fr/404.php). Pour ceux qui se demandent si cela vaut le coup, il a encore 21 domaines qui pointent cette page uniquement. Bon ok, elle est en 404 ;)

92. Eléments tactiles de taille suffisante
Avec le développement de la navigation sur tablettes et mobiles il faut absolument pense rà rendre les boutons cliquables faciles à utiliser (donc grands et bien visibles).

93. Pas de plugin externe à installer

Souvenez-vous des vidéos qu'il fallait charger avec un plugin realplayer. Beurk ? Donc évitez les contenus inaccessibles sans une installation complémentaire. Source : https://developers.google.com/speed/docs/insights/AvoidPlugins?hl=fr

94. Temps de réponse du site


S'il n'y en a qu'un qui doit vous obséder, c'est celui-là. Il est la conséquence de tous les autres mais c'est au final celui que perçoit réellement l'utilisateur. Le web doit être rapide, Google le dit clairement et fournit des outils ad hoc depuis des années. Ils ont même fait une vidéo. C'est pour dire. Pour les heureux webmasters de worpress, j'utilise WP-Rocket, un code français et j'en suis très content (et donc je vais leur faire un peu de pub. S'ils leur prenaient l'envie d'upgrader ma licence, je dis pas non...). De manière générale, une offre de référencement haut de gamme devrait toujours intégrer cet aspect du travail de SEO. Source : http://googlewebmastercentral.blogspot.com/2010/04/using-site-speed-in-web-search-ranking.html

95. Dates d'expiration dans les entêtes
Précisez des dates d'expiration dans les entêtes des pages. Soyez généreux, sauf si vous avez une bonne raison de penser que la page va être remise à jour très vite (ce qui dans les faits est très rare pour la très grande majorité des sites)

96. Cache des ressources statiques


Mettez en cache les ressources statiques (images, codes divers, etc)

97. Réduire les requêtes DNS

Chaque requête dns (la conversion d'un nom de domaine en IP) prend du temps. Limitez-les voire préchargez-les ("prefetch").

98. Minimiser les redirections
Les redirections sont autant d'éléments à charger à nouveau. L'idée est d'éviter que la page A pointe en 301 vers B qui pointe en 301 vers C. Faites A vers C et B vers C, vous gagnez un saut.

99. Eviter les requêtes en 404

Si vous allez chercher des codes externes au site, assurez-vous qu'il se chargent bien. Une 404 coûte du temps.

100. Combiner les fichiers javascript

Au lieu de charger 10 fichiers javascript, pourquoi ne pas les fusionner en un seul ?

101. Combiner les fichiers CSS

Au lieu de charger 10 fichiers CSS, pourquoi ne pas les fusionner en un seul ?

102. Utiliser les sprites CSS
Les sprites CSS sont une seule image qui en contient plusieurs, on charge l'ensemble une fois pour toute et on extrait les images utiles aux bons endroits. 103. Mettre les CSS en début
Positionnez les CSS en début de page, cela évitera de la reconstruire dans le navigateur par la suite

104. Mettre les scripts en fin

Les scripts sont lourds et souvent peu utiles au chargement (sauf exception). Allez les chercher à la fin, quand le visiteur a déjà son contenu devant les yeux.

105. Limiter document.write()
Évitez d'utiliser cet outil, peu efficace en terme de rapidité.

106. Limiter @import
Évitez d'utiliser cet outil, peu efficace en terme de rapidité.

107. Préférer les requêtes asynchrones

Si vous pouvez décaler certaines requêtes faites le. Je pense par exemple au lazy loading, le fait de charger les contenus (images en priorité) sous la ligne de flottaison qu'à partir du moment où le visiteur les demande. C'est le cas par exemple des commentaires sur youtube (exemple sur la vidéo du Gangnam Style, qui a passé la barre de 2 000 000 000 de vues (!!).

108. Paralléliser les requêtes


Les navigateurs ne chargent en parallèle pour un même domaine qu'un certain nombre de requêtes. Pour contourner cela, utiliser des domaines (ou sous-domaines) différents. Ainsi, vous pourrez charger plus de ressources en parallèle. Cette technique s’appelle le "domain sharding". (Voir le point 126 pour un test complet en image)

109. Limiter la taille des entêtes

Évitez les entêtes à rallonge. Réduisez le code à ce qui est utile.

110. Limiter la taille des cookies
Évitez les cookies trop lourds.

111. Contenu statique depuis des domaines sans cookie
Si vous allez chercher du contenu sur un domaine qui essaie d'ipmlanter des cookies, c'est autant de temps de perdu.

112. Compression Gzip


La compression Gzip est une compression sans perte. Donc vous ne faites pas un compromis. Par contre, cela permet de réduire considérablement la taille de ce qui transite par les tuyaux, eux aussi pouvant limiter la performance perçue.

113. Supprimer les CSS inutiles

Si vous regardez ce qui sert réellement dans les cc, vous verriez que beaucoup de styles sont inutilisés. Si vous avez la possibilité de les éliminer, vous gagnerez du temps !

114. Réduire la taille des CSS
Ici on parle surtout de "minification", qui a pour but de supprimer les caractères inutiles d'un fichier. Les commentaires, espaces, retours à la ligne inutiles sont supprimés. On peut gagner quelques pour-cents de poids.

115. Réduire la taille du Html
Minifier le html va permettre de gagner quelques millisecondes sur un chargement.

116. Alléger le poids des images


Point essentiel, le poids des images : j'aime le png mais il pèse lourd. Réservez-le donc pour les cas où vous avez besoin de transparence. Pour tout le reste un jpeg compressé à 30% (c'est beaucoup soupire le photographe en moi) va considérablement réduire le poids de l'image. Par exemple, j'avais une image en png sur ma home qui pesait 800ko. Après conversion et compression en jpeg, on est à 80ko. Pour l'utilisateur, pas de différence visuelle notable.

117. Images à la bonne taille


Si vous voyez une photo qui s'affiche comme à l'époque des modems 56k (les plus vieux comprendront) c'est souvent qu'à la base elle est en pleine résolution et que le navigateur la charge totalement en la redimensionnant à l'arrivée. Très mauvaise solution ! Mettez-les directement à la bonne taille.

118. Une ressource = une seule url
Évitez d'aller chercher un même élément par plusieurs urls différentes. A chaque fois la procédure est refaite intégralement. Méfiez-vous des urls avec seulement un paramètre différent, c'est considéré comme une url totalement différente.

119. Règles CSS précises
Évitez des css trop générales. Soyez spécifiques avec des classes limitées à ce qui sert vraiment.

120. Utiliser du CSS standard
N'ayez pas recours à du CSS non standard, il va aboutir à des erreurs d'affichage.

121. Eviter les CSS inline
Le css inline est contraire à l'idée même de css où tout est regroupé. Sa réinterprétation prend du temps.

122. Eviter les CSS appelé par
Appelez des css par l’intermédiaire de n'est pas efficace.

123. Spécifier les dimensions des images

Spécifiez pour chaque image les dimensions auxquelles elle doit être affichée.

124. Spécifier un charset
Indiquez dans le du fichier html le charset utilisé pour ne charger que les bons caractères.

125. Réduire les requêtes http


Limitez le recours à des requêtes http superflues.

126. Utiliser un CDN


Un CDN (Content Delivery Network) va permettre à votre visiteur de télécharger les ressources statiques (css, js, images, vidéos, etc) depuis des serveurs spécialement conçus pour. C'est plus rapide. Par ailleurs dans le cas de sites internationaux, vous pourrez utiliser des cdn proches de chez lui. Le temps de transfert sera alors plus faible. En complément de ce qui a été vu avec le domain sharding, voici un test (vu sur : http://andrecheung.wordpress.com/2013/08/03/cdn-and-then-domain-sharding/) : 1er chargement : sans cdn, sans sharding 2ème chargement : avec cdn, sans domain sharding 3ème chargement : avec cdn, avec domain sharding Evidemment la méthode luxe est optimale, mais le gain (le cas est issu d'un site international) maximal est surtout apporté par le CDN.

127. Permettre la mise en cache d'Ajax
Si vous utilisez des scripts ajax, essayez de les mettre en cache. 128. Requêtes GET pour Ajax
Si vous faites des requêtes en ajax, utilisez préférablement des requêtes GET.

129. Réduire le nombre d'éléments DOM
Limitez les éléments DOM, c'est autant de temps gagné.

130. Utiliser un favicon léger
Détail, certes, mais un favicon léger va permettre un mini gain de temps. Il n'y a pas de petit profit !

131. Mettre en cache le favicon
Pendant que vous en êtes à la mise en cache, mettez-y aussi ce favicon :)

132. E-Réputation

Google cherche absolument à analyser ce que d'autres pensent de vous. Les backlinks servent à cela, mais il est fort probables que d'autres signaux servent à faire cette évaluations. Parmi ces outils, l’analyse de votre e-réputation doit en faire partie. Surveillez ce qu'on dit de vous et corrigez le tir le cas échéant. Source : http://moz.com/blog/how-negative-emotion-could-hurt-your-rankings

133. Informations de contact
En e-commerce, c'est déjà une obligation légale. Sortez du bois, dites qui vous êtes, quelle est l'entreprise derrière votre activité. C'est rassurant pour vos visiteurs et probablement perçu comme signal positif par Google.

134. Zéro malware


Évidemment des virus sur votre site sont très mal perçus par Google. Il réagit vite et fort. S'il est dans un bon, jour il vous envoie un avertissement dans le Google Webmaster Tools. Quoi qu'il arrive, il vous déclasse. Corrigez le problème et demandez un réexamen. Vos classements doivent revenir à l'identique. Utilisez l'outil Google Safe Browsing (exemple ci-dessous avec le site Google.com) pour analyser votre site. Attention, je ne le trouve pas toujours très cohérent. Source : http://www.google.com/safebrowsing/diagnostic?site=google.com

135. Formulaires avec politique de confidentialité


Je pense que c'est un facteur important car c'est quasi exigé en Adwords. Le contenu des cette politique n'est pas important pour Google, mais sa présence claire l'est.

136. Numéro de téléphone

Un numéro de téléphone est rassurant pour le visiteur. Donc pour Google aussi. Par contre n'espérez pas qu'il vous appelle. Il n'a pas le temps. Il gère un zoo plein de pandas, de pingouins, de colibris et même d'orques.

137. Adresse postale connue de Google
Google Maps connaît bien un certain nombre d'adresse, il serait de bon ton que la vôtre y soit aussi.

138. Conditions Générales de Vente

Les CGV sont essentielles à la vie d'un site e-commerce et bien souvent elles sont mal conçues. Mais il est préférable d'en avoir.

139. Certificat SSL valide


Si vous avez un certificat SSL, assurez-vous de sa validité. Un navigateur comme chrome vous met une page d'avertissement plutôt agressive avant si le certificat "n'est pas sûr".

140. Taux de clic dans les pages de résultat élevé
Si ce critère de positionnement a bien sa place dans l'algorithme de Google, il doit être très fortement pondéré. Il n'est pas illogique de penser que si le site a tendance à être meilleur en terme de taux de clic dans les pages de résultats, il mérite un peu de remonter. Cela n'a jamais été prouvé mais certaines agences SEO s'en serve pour vendre cela comme la panacée du référencement de site sur internet... Pourquoi peu de poids ? Parce que cela se manipulerait assez facilement par du faux trafic... Optimiser son référencement naturel, oui, mais pas au détriment de l'utilisateur !

141. Marque recherchée
Si le nom de votre site est souvent recherché dans Google même, c'est que vous suscitez l'intérêt. En comparant cela à la moyenne des autres sites du secteur, Google peut en déduire aussi une certaine forme d'attractivité. Aucune technique de référencement ne fera ce travail à votre place. Soyez corrects avec vos clients. Sur le long terme c'est bien mieux ! Pour aller plus loin : http://www.laurentbourrelly.com/blog/827.php (partie notoriété)

142. Autorité du site


L'autorité du site (chose qui pourrait être très subjective !) se mesure en SEO par l'éloignement à des sources de référence : sites gouvernementaux ou wikipedia par exemple. Si vous recevez un lien direct de ceux -ci, vous êtes digne de confiance. Si vous recevez un lien d'un site digne de confiance vous devez aussi être relativement digne de confiance. Et ainsi de suite. Plus vous êtes proche des anges, meilleurs vous êtes. C'est la notion de "trust flow". Image ci-dessous prise chez : http://www.ya-graphic.com/2013/07/6-indicateurs-de-qualite-dun-site-web-pour-le-seo/

143. Rebond (vers les pages de résultats) faible
Votre site apparaît dans une recherche. Oh, joie. Un visiteur clique dessus. Oh, re-joie. Mais il rebondit aussitôt ou presque en utilisant le bouton back de son navigateur puis reclique sur un autre résultat qui cette fois le satisfait durablement. Si c'est un comportement isolé, peu importe. Si c'est quasi systématique, la page de votre site doit faire peur. Et c'est mal ! L'urgence ? Rebosser la chose, parce que si ces rebonds ont un impact modeste pour améliorer le référencement de son site, ils doivent faire mal au taux de conversion !

144. Trafic direct important par Chrome
Chrome occupe une place assez spéciale dans le marché des navigateurs web. Il est fourni par Google qui est aussi un moteur de recherche... Et de l'aveu même d'un ancien employé, Google se sert – anonymement – des données de navigation pour l'aider. Donc un accès direct à votre site est aussi un énorme signal de satisfaction. Source : http://www.siliconbeachtraining.co.uk/blog/ex-google-employee-brighton-seo Source sur la part de Chrome dans les navigateurs : http://gs.statcounter.com/#browser-FR-monthly-201306-201405-bar

145. Visites renouvelées sur Chrome

Un visiteur qui revient est probablement un visiteur satisfait (ou amnésique, mais laissons ce cas de côté). Donc avec Chrome, il est aisé de surveiller ce genre de visite.

146. Bookmark du site dans Chrome

En général, les visiteurs mettent en favori les sites qui présentent un intérêt. Donc avec Chrome, Google peut aussi traquer ce genre de comportement.

147. Durée de visite avant une nouvelle recherche
Si Google vous envoie un visiteur et qu'il ne revoit pas pendant longtemps, c'est que vous avez su l'intéresser.

148. Stabilité du serveur

Un serveur instable présente un risque d'instaisfaction pour Google. Si une courte panne ponctuelle n'aura pas de conséquence, une fréquence excessive de panne sera un mauvais signal.

149. Comportement visiteur on site
Avec Chrome, on l'a vu, Google fait déjà beaucoup de choses... Il peut aussi suivre le comportement complet d'un visiteur sur son site... Donc bosser l'expérience utilisateur et vous aiderez (un peu) votre référencement sur Google.

150. Like et partages sur Facebook
Beaucoup de référenceurs pensent que Facebook émet de des signaux sociaux utiles en SEO, mais je fais partie de ceux qui pensent que ce n'est pas le cas. Google se méfie de Facebook, qui pourrait très bien, un jour, décider de ne plus fournir les indications telles ques les likes. Ce qui déséquilibrerait les classements sans que Google l'ait vraiment choisi. Donc si ce critère a un impact, il n'est que mineur. 151. Partages sur Twitter
Twitter, le réseau social que je préfère parce qu'il n'est pas exactement social, présente les mêmes risques que Facebook et je dois aboutir à la même conclusion : peu ou pas utile.

152. Association avec une page Google+

Associez votre site à Google+ et faites vivre un peu cette page. C'est Google+ donc c'est forcément utile en référencement sur moteur de recherche.

153. Attribution à un auteur (Authorship)


Le facteur qui monte en puissance avec le (pseudo) avènement de Google+. Google veut nous le vendre son réseau social et il pousse toutes les portes possibles. L'authorship consiste à attribuer un contenu à un profil Google+. C'est bon dans les pages de résultats de recherche (vous avez votre tête) et c'est 100% conforme à l'idée que se fait Google de votre vie privée : c'est encore mieux quand elle est totalement publique. Toute considération philosophique à part, c'est le critère qui va peser lourd par la suite.

154. +1 et partages de Google+


Les +1 et autres partages sont un critère qui va peser de plus en plus lourd vu le succès (discutable mais réel) du réseau social fait-pour-tout-savoir-de-votre-vie-privée-et-vous-envoyer-de-la-pub-ciblée-en-masse.

155. Mentions sur les sites d'actualités

Si on parle de vous dans l'actualité, c'est que vous êtes intéressant ! (C'est bien un raisonnement de moteur de recherche américain)

156. Age du domaine
Recevez des liens depuis des domaines âgés sur leur thématique.

157. Backlink image : balise alt renseignée
Si une image vous fait un lien, l'idéal est qu'elle soit accompagnée d'une balise alt renseignée avec une phrase, pas juste une suite de mots clés. Si cette phrase contient des expressions clés, c'est encore mieux !

158. PageRank de la page


Le St Graal du référenceur, le PageRank d'une page vous faisant un lien. Ce fameux PageRank mesure la popularité de la page (de manière imparfaite), mais s'il est élevé (non nul sera déjà pas mal), le backlink aura un poids nettement plus élevé.

159. PageRank du domaine
Si le PageRank de la page est un facteur important, celui du domaine l'est aussi, mais dans une moindre mesure. Le cas extrême étant un lien depuis une page non indexée sur un site PR10. Ne vous laissez pas impressionner par le PR d'un site, celui de la page qui envoie le lien est autrement plus considérable.

160. Backlinks de la page émettrice
Si la page qui vous envoie un backlink en reçoit elle aussi, c'est autant de "jus" que vous récupérez. C'est d'ailleurs une technique souvent utilisée en black hat, qui consiste à poser ses liens et les pousser par d'autres liens, souvent de qualité très basse.

161. Autorité du site


L'autorité d'un site va aussi beaucoup vous aider, surtout si vous êtes de la bonne thématique. Si vous arriviez à obtenir un lien vers votre site de défiscalisation depuis le site des impôts du gouvernement, on pourrait dire que oui, c'est assez utile !

162. Signaux sociaux sur la page
Le signal social tendant à devenir un complément de backlink (essentiellement Google+ d'ailleurs), c'est toujours bon de recevoir des liens depuis des pages ayant ce genre de gratifications.

163. Langue identique

Un bon lien proviendra idéalement d'un site de la même langue. Si le site est exactement dans la même thématique, ce point est moins important.

164. Postion du backlink


Partant du principe qu'un internaute lambda (principe du "reasonable surfer") cliquera plus facilement sur un lien au dessus de la ligne de flottaison, Google semble attribuer un poids plus élevé aux liens qui répondent à ce critère. Sources : http://www.seohaus.com/blog/20-link-attributes-based-on-googles-reasonable-surfer-model/ http://ilpubs.stanford.edu:8090/422/

165. Page thématisée


Essentiel depuis la mise à jour Pingouin. Un lien depuis un site qui n'a rien à voir avec le sujet sera suspect. Évidemment, c’est l'accumulation qui rend les choses détectables.

166. Site thématisé

La plupart des sites ont une thématique assez précise (contre exemple : Wikipedia, Google, etc). Si la page qui vous envoie le lien n'est pas totalement adaptée à votre thématique mais que par ailleurs le site lui correspond, cela restera positif.

167. Backlinks contextualisés

Ici je pense au fait qu'un lien au sein d'un texte sera plus utile qu'un lien qui traînerait ailleurs sur la page. Pour aller plus loin, un cas intéressant de levée de pénalité avec analyse de la qualité des liens : http://www.eskimoz.fr/levee-de-penalite-google-pingouin-retour-dexperience/

168. Citations du site
La citation est un peu un lien du pauvre, pire encore qu'un nofollow. Mais c'est aussi une façon de montrer qu'on parle de vous, que des webmaster veulent faire connaître votre site internet, donc c'est un mini signal positif. Un bon article sur le sujet (dont j'ai repris ci-dessous l'image) : http://www.iceranking.com/Google/l-optimisation-des-backlinks-et-des-citations-structurees-de-votre-page-google-plus-local/

169. Présence de mots clés dans la page

Si vous visez certains mots clés, l'idéal est que les pages vous faisant un lien comporte ces mots clés ou variantes proches. C'est la raison pour laquelle certains spams de commentaires sont très longs, pour donner une thématique, un contexte et placer des mots clés.

170. Page avec d'autres liens vers des sites pertinents

C'est une notion parfois difficile à argumenter face à un client : mettre dans son contenu des liens vers des sources pertinentes est un plus. Mais ces sources sont souvent des concurrents. Les blogueurs SEO on depuis longtemps intégré cette technique, mais les autres secteurs ont parfois quelques (compréhensibles) réticences difficile à vaincre pour une société de référencement...

171. E-réputation du site
Probablement pris en compte d'une manière ou d'une autre par Google mais probablement d'une manière plus limitée.

172. Backlinks non réciproques

L'échange de liens a longtemps été d'une efficacité rare mais Google a mis ce genre de pratique à l'index. Faites le de manière à ce que le site qui vous envoie un lien n'en reçoivent du vôtre. Surtout si c'est des (vilains) liens en pied de page.

173. Nombre de liens sortants d'une page

Moins il y en a mieux c'est, le "jus" étant en fait divisé par autant de liens qu'il peut y avoir sur la page (nofollow compris).

174. Mot clé dans l'ancre


Une vraie contradiction chez Google : d'un côté il dit qu'il serait de bon ton que les ancres de liens soient descriptives, de l'autre, il se fâche pour une sur-optimisation. Donc faites quelques ancres optimisées (mais aussi d'autres plus génériques, comme le nom de domaine) et variez-les !

175. Nombre de backlinks

Plus vous avez de pages vous faisant un lien, mieux c'est. Mais d'autres facteurs sont à prendre en compte.

176. Nombre de domaines


A mes yeux, cette mesure est bien plus pertinente que le nombre de pages faisant un lien. En effet, mieux vaut 100 domaines vous faisant un lien qu'un seul domaine vous en envoyant 100. (note : j'ai l'impression de paraphraser Émile dans la Cité de la Peur). C'est là que je constate parfois des manques dans des devis SEO d'agences de référencement pas toujours très motivées pour s'attaquer au netlinking... Source : http://www.seomoz.org/blog/guide-to-competitive-backlink-analysis

177. Nombre d'IP
Si vous recevez tous vos liens depuis un nombre réduit d'IP (surtout vis à vis d'un ratio IP vs noms de domaines), c’est assez suspect car probablement la signature d'une campagne de netlinking. La variété étant de mise pour voler sous les radars, plus d'IP c'est plus de crédibilité. (Mon côté Grey Hat ressort parfois)

178. Nombre de classes C
Avoir des backlinks de différentes classes C d'IP permet de laisser penser que ce n'est pas qu'un unique webmaster qui vous fait un lien. Cependant avec la mise en vente de ce genre de service (hébergement multi class C), il est possible de contourner cette difficulté. Bon c'est assez cher (quelques euros par mois par IP plus le serveur, souvent un vps sous dimensionné mais vendu à prix d'or. C'est la magie d'un client captif).

179. Augmentation progressive

Encore une fois, Google cherche à mesurer ce qui est naturel de ce qui ne l'est pas (ils appellent cela le spam... C'est assez discutable de mon point de vue). La vraie difficulté à laquelle Google est confronté est de voir ce qui relève d'un buzz de ce qui est une campagne de netlinking aggressive et ponctuelle. Le but du jeu est de construire un profil de lien sur la durée, sans tout mettre en oeuvre dès le départ.

180. Augmentation durable


Obtenir des backlinks au lancement d'un site c'est bon pour votre visibilité sur Google. Mais quid de la suite ? Comment interpréter le fait que vous n'avez plus de nouveau lien ? L'explication la plus logique est que vous n'intéressez plus personne. Ou que vous ne faites plus de netlinking. Dans un cas comme dans l'autre, Google voit cela comme un signal négatif.

181. Backlinks nofollow et dofollow

La discussion sur ce sujet est assez animée. Y a-t-il besoin de liens nofollow dans un profil de liens ? Oui, selon moi, mais non, selon un autre agence SEO qui aura aussi de bons arguments. Je pense que si le profil est déjà douteux (que des wordpress ou ancres très optimisées...), pas de nofollow va contribuer à allumer un signal dans l'algo. Donc si vous voulez prendre moins de risques, jouez aussi la carte du nofollow. Je suggère quelques commentaires intelligents sur des blogs dans votre thématique. Source : http://www.seomix.fr/google-penguin-liens/ (un test très intéressant sur des sites pénalisés ou non par Pingouin !)

182. Sites de tailles différentes
Petit critère à mes yeux, mais recevoir des liens de sites de différente taille (que ce soit basé sur le PR ou le nombre de page) doit aider.

183. Sources variées


Votre priorité depuis "The Evil Penguin". Il faut obtenir des liens de sources différentes : annuaires, blogs, forums, citations, etc. C'est la mise en place d'un schéma d'acquisition de lien répétitif qui vous rend suspect. J'ai lu récemment un bon résumé de la chose : un bon lien est un que vous n'êtes pas sûr d'obtenir. Source : http://www.referencement-naturel-white-hat.fr/empreintes-et-detection/

184. Variété des types d'ancres
On peut penser qu'avoir des liens qui soit aussi sous forme d'image puisse être interprété comme plus naturel. Possible mais peu de poids vraisemblablement.

185. Proportion d'ancre avec le nom du site
Si aucun de vos lien n'intègre le nom de votre site, n'est-ce pas un peu suspect ? (être suspect en SEO, c'est s'écarter un peu trop d'une moyenne)

186. Longueurs des ancres
Des ancres très longues ne sont pas normales. Une de temps à autre passera, mais si vous ancrez tout le temps sur des phrases très longues, c'est assez déroutant. A mes yeux, ce critère doit peser très peu (voire rien du tout !)

187. Textes d'ancres variés


Quad je veux voir si un site présente un risque de pénalisation, je regarde la répartition de ses ancres de liens. Trop ciblé = trop risqué. Variez, utilisez la sémantique, des synonymes, des variantes. Ci-dessous un exemple avec un site trop optimisé 40% d'ancres quasi identiques

188. Achat de liens ☠ L'achat de liens est clairement une faute aux yeux de Google (qui avoue là l'importance des liens). Maintenant, il faut relativiser. La preuve et la détection sont souvent très difficile à obtenir. Donc si vous le faites, faites le discrètement, en traitant directement avec les webmasters (et évitez les mentions indiquant que l'article est sponsorisé). Source : http://searchenginewatch.com/article/2318619/Matt-Cutts-Google-Penalties-Get-More-Severe-for-Repeat-Offenders

189. Usage massif de liens d'affiliation ☠ ☠ L'affiliation c'est le fait de promouvoir le produit de quelqu'un d'autre pour toucher une commission sur la vente (grossièrement). Le problème de fond est que l'objectivité n'est plus de mise, ce qui nuit à la qualité du contenu. Un peu d'affiliation ne vous nuira pas mais un site qui n'aurait que de l'affiliation sans réel contenu sera pénalisable par un audit manuel de Google (rare mais – hélas – efficace). Source : page 40 du quality rater guide

190. Contenu caché par css hidden ☠ Vous pouvez utiliser le css hidden si vous le faites pour de bonnes raisons (comprendre pour les visiteurs et pas pour référencer son site). Si vous abusez vraiment (disons totalement intentionnellement :) c'est dangereux

191. Cloaking ☠ ☠ ☠ Le cloaking consiste à envoyer aux moteurs une page différente de celle vue par un visiteur. Le principe consiste à détecter le googlebot et subsituer la page normale par celle optimisée. On peut le faire par le user agent (dangereux) ou par IP (sous réserve de tenir à jour les Ips du bot...). Si on vous propose cela comme prestation de référencement naturel, comprenez les implications : blacklistage possible.

192. Vente de liens ☠ Nouveauté 2014 (correctif suite commentaire : 2012 serait déjà concernée) Google vous pénalise pour liens sortants non naturels. En France, par exemple le site webmasterank.info (forum SEO de qualité) a été sévèrement sanctionné pour ce motif. Le webmaster a mis en nofollow certains liens (pas tous, bravo pour son courage) en a regroupé d'autres en pied de page et a fait une demande de réexamen, acceptée. Le site est revenu, mais je pense que l'expérience doit avoir un côté effrayant ! Source : https://productforums.google.com/forum/#!topic/webmasters/T07p4RPvYKc Cas de Webmaster Rank : http://forum.webmaster-rank.info/site-annuaire-forum/maj-des-signatures-pr0-avril-2014-t9835.html

193. Meta refresh agressif ☠ ☠ Une des premières techniques utilisées pour pratiquer des "redirections trompeuses" (ce sont les termes de Google). Donc Google a depuis longtemps mis en place des méthodes de détection. A éviter donc.

194. Keyword stuffing ☠ ☠ La fameux "Keyword Stuffing" ou bourrage de mots clés. Trop de répétitions qui se traduisent pas une densité excessive et c'est du spam. Source : page 34 du quality rater guide

195. Sites satellites ☠ ☠ ☠ Des sites conçus pour pousser le "money site". Sans valeur ajoutée, juste celle de faire de bons liens. Google n'aime pas. Mais c'est efficace. A utiliser de façon maîtrisée et limitée.

196. Pages peu différentes en masse ☠ ☠ Les fameuses "Doorway Pages", des pages très optimisées pour une expression clé, mais assez peu différentes d'une page à l'autre. Le cas classique d'une entrprises qui intervient dans différentes villes et qui crée une page par ville. Pour éviter cet écueil, enrichissez les pages pour les différencier les unes des autres. Par exemple, donnez des infos sur la ville, ajoutez quelques images, etc. Source : page 37 du quality rater guide

197. Autoblogs, autoforums... ☠ ☠ ☠ Ce qui est automatique déplaît à Google. Si vous créez des autoforums ou autoblogs, vous le savez. Soyez subtils, c'est encore jouable. Mais vous ne serez jamais à l'abri d'une dénonciation... Encouragée par Google (cf t-shirt de Matt Cutts - beurk !)

198. Noms de domaines ou urls à rallonge ☠ Oui, mettre des mots clés dans une url ou un domaine aide. Mais si vous allez à l'excès, c'est non. Petite remarque : un nom de domaine trop long vous emp^chera de faire de l'adwords... Car il faut citer le domaine et il n'y a que 35 caractères. Je vous vois déjà sourire, mais c'est arrivé à un client white hat qui s'était un peu lâché sur son nom de domaine.

199. Texte invisible ☠ ☠ ☠ Comme le hidden CSS, mais en plus basique : du blanc sur fond blanc. A oublier. Archi usé et détectable.

200. Spam de backlinks ☠ L'outil numéro 1 du black hat est évidemment chassé par Google. Vous pouvez le faire mais sachez les risques que vous prenez (blacklistage essentiellement)

201. Liens sortants cachés ☠ Rendre à un lien une apparence de lien normal est suspect. A moins d'avoir une très bonne raison (et je ne vois pas laquelle hormis grey/black hat), évitez. D'ailleurs c'est à peu près contre toutes les recommandations en matière d'ergonomie web.

202. Frame à 100%
J’ai déjà déconseillé les structures à base de frames, mais si en plus vous jouez avec le système, à savoir deux frames dont une à 100% (donc la seule que le visiteur verra mais Google visitant les deux), vous trichez. Risqué car un peu trop facile. Sans compter que c'est obsolète technologiquement. Source : page 36 du quality rater guide ​Sources : (celles ci-dessous sont générales, elles m'ont permis de construire cette liste) http://backlinko.com/google-ranking-factors (note : ce guide est LA référence principale de cet article. Mon but était de le reprendre en allant plus loin et en l'actualisant. C'est d'ailleurs la méthode qu'il préconise lui-même (http://backlinko.com/skyscraper-technique) pour créer des contenus qui sortent du lot : reprendre ce qui se fait de mieux et l'améliorer. Son article étant déjà excellent, il m'est difficile de prétendre avoir fait bien mieux ! J'ai surtout voulu y indiquer mes remarques, actualiser ce qui pouvait l'être, mettre des pondérations sur les différents points, proposer une mise en page enrichie et agréable à lire) http://www.searchenginejournal.com/infographic-googles-200-ranking-factors/64316/ http://www.performancemediaplacement.com/Google-Ranking-Factors.asp http://fr.slideshare.net/randfish/google-ranking-factors-2014-correlations-testing-hypotheses http://moz.com/search-ranking-factors#metrics https://developers.google.com/speed/docs/best-practices/rules_intro http://yslow.org/ http://cbutterworth.com/do-h1-tags-still-help-seo/ (Celles ci-dessous sont intégrées dans l'article même et reprises ici suite remarque sur Tweeter) http://www.ya-graphic.com/2013/07/6-indicateurs-de-qualite-dun-site-web-pour-le-seo/ http://www.siliconbeachtraining.co.uk/blog/ex-google-employee-brighton-seo/ http://gs.statcounter.com/#browser-FR-monthly-201404-201404-bar http://www.laurentbourrelly.com/blog/827.php http://www.nouslesgeeks.fr/2014/05/27/comment-google-nous-impose-son-plus/ http://www.seohaus.com/blog/20-link-attributes-based-on-googles-reasonable-surfer-model/ http://www.eskimoz.fr/levee-de-penalite-google-pingouin-retour-dexperience/ http://www.iceranking.com/Google/l-optimisation-des-backlinks-et-des-citations-structurees-de-votre-page-google-plus-local/ http://www.seomoz.org/blog/guide-to-competitive-backlink-analysis http://www.seomix.fr/google-penguin-liens/ http://www.referencement-naturel-white-hat.fr/empreintes-et-detection/ http://searchenginewatch.com/article/2318619/Matt-Cutts-Google-Penalties-Get-More-Severe-for-Repeat-Offenders https://productforums.google.com/forum/#!topic/webmasters/T07p4RPvYKc http://forum.webmaster-rank.info/site-annuaire-forum/maj-des-signatures-pr0-avril-2014-t9835.html http://www.seohaus.com/blog/20-link-attributes-based-on-googles-reasonable-surfer-model/ http://static.googleusercontent.com/media/www.google.com/fr//insidesearch/howsearchworks/assets/searchqualityevaluatorguidelines.pdf Une source que je n'avais pas vue mais qui mérite une bonne visite (suite Tweet de Laurent Bourrelly) http://www.gdecode.com/ ​ Post Scriptum – c’est le moment où vous bossez :) 1) Partagez (mon truc à moi c’est Twitter) 2) Commentez, j’essaierai de répondre. Promis ! 3) Parlez de ce post sur votre blog et dites-le moi dans les commentaires, j’irai commenter si vous le voulez 4) Contactez-nous pour un devis si vous avez envie qu’on mette en place une stratégie pour la visibilité de votre site. 5) M’inviter pour une conférence? C’est oui ! (j’adore faire mon petit show) 6) Prenez une aspirine. Oui, cet article était long (plus de 8 000 mots) et vous êtes fatigué(e) :) [ninja-inline id=2695] A découvrir aussi : colis-port--astuce Vos clients e-commerce vont adorer cette énorme astuce ! Partagez ! Tweet about this on Twitter9Share on Google+64Share on Facebook9Email this to someone About David Dudouet L'étrange animal à l'origine du projet Refeo. Mi-entrepreneur, mi-webmarketeur. Une idée innovante à la minute. Confiez-lui un site il le mettra en orbite. 12 Comments Quentin dit : 4 juin 2014 à 11 h 24 min Très très gros travail ! Bravo à vous. Au final, quand on y regarde de plus près, on connait la plupart des points (les 2/3 étoiles du moins). Après, en voyant certains facteurs, j’ai quelques doutes. Par exemple, l’importance donnée aux balises Hx (x = 1,2,3). Vous mettez 2 et 3 étoiles, mais est-ce toujours vrai aujourd’hui ? Je n’ai pas vu la présence de la balise « u » dans les facteurs. J’avais vu sur un forum de référencement qu’ils pouvaient avoir plus d’importance que le strong. Mais honnêtement, il n’y avait pas de tests pour le prouver. Répondre David Dudouet dit : 4 juin 2014 à 12 h 43 min @ Quentin : Beaucoup de (bonnes) questions dans votre commentaire : 1) Balises Hx : je pense qu’elles ont une vraie importance car elle indiquent une volonté de structurer un contenu, ce qui me semble révélateur la qualité d’un contenu (et pas seulement un énorme pavé). Après 1/2/3 étoiles, c’est évidemment discutable 2) balise u : c’est juste elle pourrait être ici tout comme l’italique. Je ne l’aime pas trop car d’un point de vue ergonomique elle laisse penser que le texte est un lien cliquable. 3) un test pour prouver l’influence d’une balise u est improbable : trop pointu, on aurait du mal à comparer réellement les résultats entre eux (avec et sans u) Répondre othmane bouzoubaa dit : 4 juin 2014 à 11 h 47 min Bonjour David, un très beau article avec un grand travail de fond réalisé. J’ai rarement lu des articles longs mais celui-la je l’ai lu et je le tweet. Un liste bien complète , ça fait du bien de l’avoir devant les yeux lol :-) Au final ce qui compte, c’est l’équilibrage dans l’optimisation SEO qui dépend de la thématique pour ne pas tomber dans les limites de la sur-optimisation ou les filtres. Bonne journée. Répondre David Dudouet dit : 4 juin 2014 à 12 h 44 min @ othmane bouzoubaa : Oui, une équilibre est désormais la priorité (en white hat surtout). Répondre Soref dit : 4 juin 2014 à 12 h 18 min Magnifique travail de complétude réalisé suite à l’article remis à jour de backlinko et qui était déjà une superbe bonne base depuis plusieurs années… Les illustrations, la mise en page, les liens complémentaires en font une page must-read ! Répondre David Dudouet dit : 4 juin 2014 à 12 h 46 min @ Soref : Clairement l’article de backlinko est ma référence. J’en ai repris nombre de points en supprimant ceux qui ne me semblaient pas pertinents (c’est subjectif) et ajouté ceux qui manquaient à mes yeux (tout aussi subjectif) Pour aller plus loin sur Backlinko, c’est le modèle qui guide mes rédactions sur ce site. Ce type est un as dans son domaine. Répondre Laurent Bourrelly dit : 5 juin 2014 à 0 h 43 min Sérieusement, les mecs !? Vous n’avez rien d’autre dans le bide que piquer le taf des amerlocs et le recycler vite fait ? T’es pas le seul, mais vous faites pitié. Vraiment !!!! Répondre David Dudouet dit : 5 juin 2014 à 7 h 53 min @ Laurent Bourrelly : Sur ce sujet, il est difficile de faire du neuf intégralement. J’ai voulu y apporter une valeur ajoutée (recherche de sources, commentaire de chaque point, notation, mise en page, partie sur la rapidité du serveur, etc.) Répondre Clip6 dit : 5 juin 2014 à 2 h 02 min Jolie liste :) Juste pour le point 192, c’est loin d’être une nouveauté de 2014. Cela est vrai depuis au moins 2012 (les deux types de pénalités pour unnatural links ont été déployées en même temps, je n’ai plus en tête la date exacte, mais ça doit pouvoir se trouver). Répondre David Dudouet dit : 5 juin 2014 à 8 h 45 min @ Clip6 : J’ai édité le point en conséquence, merci ! Répondre zé dit : 5 juin 2014 à 20 h 13 min Enorme article que j’ai lue de haut en bas avec intérêt. Merci pour ce travail même s’il est inspiré d’un autre post, c’est toujours bon d’avoir plusieurs avis/versions. Pour ce qui est du point 187 sur les ancres, je suis quasi sur que d’avoir 40% d’ancres identiques peu être bon, à la seule condition que ce soit le ndd en ancre. Et sinon, boulette au point 32, le lien » Optimiser son référencement naturel avec les rich snippets » envoie sur une 404 ;) Répondre David Dudouet dit : 10 juin 2014 à 8 h 56 min @ Zé : Oops Akismet qui faisait encore du zèle :\ Merci pour votre commentaire, j’ai corrigé le point 32 (petit bug du plugin thrive content builder…) Pour le point 187, 40% d’ancres sur le nom de domaine est tout à fait normal, nous sommes d’accord. L’exemple que j’indiquais se base sur un site dont le nom de domaine était une marque bien différente des 40% d’ancres optimisées sur un mot clé concurrentiel. Répondre Leave a Reply Name * Email *Website Notifiez-moi des commentaires à venir via email. Vous pouvez aussi vous abonner sans commenter. M'inscrire à la newsletter ! (Garantie sans spam => Lien de désinscription systématique)

Aucun commentaire:

Enregistrer un commentaire