Pour commencer
Je dois m'excuser auprès de ceux qui sont pour TL; DRs. J'ai inclus une liste de liens que Google n'aime pas en haut juste pour vous!
C'est l'une de mes fameuses réponses longues. Mais c'est important et parfois une réponse courte ne suffit tout simplement pas. Si vous me connaissez, parfois je laisse des commentaires avec "Réponse courte. Non." Ou oui selon l'occasion. Ce n'est pas une de ces occasions.
Liens que Google n'aime pas.
Ceci est juste une liste rapide des types de liens que Google n'aime pas et serait considéré comme Black Hat. Il peut y en avoir plus.
- Échanges de liens: échangez des liens de façon quid pro quo. Vous me liez et je vous lierai.
- Liens payants: liens que vous achetez auprès d'une entreprise ou d'une personne.
- Liens en échange de services ou de produits: tout lien renvoyant un produit ou des services pour le lien. Une autre contrepartie.
- Publication d'articles: La publication d'invités est une chose, cependant, les sites de soumission / marketing d'articles où le même article apparaît à plusieurs endroits n'est pas apprécié.
- Liens automatisés: où les liens sont créés à l'aide de l'automatisation, souvent par logiciel.
- Liens basés sur des widgets ou des bogues: lorsqu'un programme JavaScript ou un appareil similaire crée des liens de manière dynamique / automatique.
- Publireportages: articles conçus pour être une publicité. Nofollow doit être utilisé.
- Liens publicitaires: c'est là qu'un lien publicitaire peut transmettre une valeur. Nofollow doit être utilisé.
- Liens de marque commerciale: tout lien conçu pour avoir une valeur commerciale spécifique. Nofollow doit être utilisé.
- Répertoires Web: Bien qu'il existe des répertoires de haute qualité, certains offrent moins ou peu de valeur. La soumission d'annuaire, en particulier la soumission de masse, doit être considérée avec prudence et considération. Nofollow doit être utilisé.
- Liens à l'échelle du site: tout lien dans un en-tête, un pied de page ou une barre latérale qui crée des liens sur chaque page ou sur de très nombreuses pages.
- Liens Blogroll: il s'agit souvent d'un ensemble de liens d'un blog vers d'autres blogs.
- Signatures du forum et du blog: liens créés dans un bloc de signature des utilisateurs.
- Commentaires sur les forums et les blogs: utilisation excessive de liens dans les forums et les blogs. Il s'agit souvent d'une méthode de marketing de backlink pour participer à des forums et des blogs ou même des sections de commentaires de site afin de laisser un lien.
- Texte de lien trop optimisé: liens conçus pour être classés par mots clés spécifiques.
- Liens contextuellement non pertinents: liens qui ne sont pas liés au sujet de la page de lien et / ou de la page cible.
- Liens non pertinents sur le plan géographique: liens sur une page Web ciblée géographiquement là où la page cible ne convient pas.
- Liens non pertinents pour la langue: liens sur une page Web d'une langue où la page cible est une autre langue.
- Vitesse de liaison: pics de vitesse de liaison retour qui est un signal de construction rapide de liaison retour.
- Réseaux de liaison: participation à un programme ou à un réseau de création de liens.
- Sites de communiqués de presse: Utilisation d'un site de relations publiques pour générer du trafic et des liens.
- Sites de signets: utilisation d'un site de signets pour générer du trafic et des liens.
- Pages de ressources: Bien que cela puisse être une activité parfaitement acceptable pour un propriétaire de site pour créer des pages de ressources, ces liens peuvent être considérés comme du spam. Les pages de ressources peuvent souvent être trop larges et trop volumineuses. Des listes plus petites sont préférées. Nofollow doit être utilisé.
- Liens excessifs avec les réseaux sociaux: il est conseillé de participer aux réseaux sociaux, cependant, la création de nombreux comptes de réseaux sociaux peut être considérée comme un jeu.
- Liens de mots clés uniques ou limités: les liens avec un ou plusieurs mots clés sont considérés comme des jeux. Un texte de lien entièrement sémantique est préférable.
- Liens en dehors du contenu: Bien que cela soit parfaitement acceptable dans certains cas, des liens excessifs juste en dehors du contenu, souvent après le contenu, peuvent être considérés comme des jeux.
- Liens publicitaires: certains sites participent à des mécanismes publicitaires qui associent des mots clés à des publicités JavaScript de style pop-up.
Les choses ont vraiment changé au cours des dernières années en particulier et au cours de la dernière décennie, bien sûr. Et vous avez raison sur la plupart des SEO, ils n'ont pas encore évolué avec la réalité à laquelle nous sommes confrontés aujourd'hui. Le principal conseil qui vous préoccupe est, vous l'aurez deviné, les liens entrants (liens de retour). Ce qui est drôle, c'est exactement à quel point les conseils SEO sont vraiment loin. Des modifications importantes sont apportées et les SEO semblent avoir 5 ans ou plus de retard sur le changement.
Ne nous leurrons pas, c'est un sujet ÉNORME qui peut probablement bénéficier d'un peu d'histoire. Je vais en offrir une partie. Ensuite, je vais entrer dans l'énigme que nous connaissons tous le mieux que je sais (et oui avec un peu de parti pris). Alors, pardonnez-moi si je ne comprends pas bien ou si je ne couvre pas tous les aspects. Comme je l'ai dit, c'est un sujet énorme. De plus, je vieillis.
Vue historique
Je me réfère souvent au document de recherche original rédigé en 1997 par deux étudiants, Sergey Brin et Lawrence Page de l'Université de Stanford. Ce fut le début de Google et nous en dit beaucoup sur la façon dont Google pense. Je me réfère également parfois à des points de repère dans l'histoire de Google, où des changements importants se sont produits. Je sais que pour certains d'entre vous, cela vieillit, mais restez avec moi (j'ai appris à ne pas dire ours / nu). Dans l'article original, cela ne vous surprendrait pas, le PageRank utilisant des backlinks est discuté. Mais ce qui est dit, il l'a souvent ignoré.
L'ancien modèle d'une page PR6 avec 2 liens sortants passant chacun PR3 n'était jamais vraiment précis. Bien que dans une certaine mesure, cela se produise, il y a beaucoup plus à l'histoire. Par exemple, si vous y réfléchissez, comme chaque page est liée à une autre, il y a une valeur qui n'est pas calculée correctement sans revoir les mesures de chaque page encore et encore. Cela se produit réellement. Mais pensez aussi à cela, tout site avec une grande quantité de PageRank passerait alors énormément de rang de manière anormale. Avec ce modèle, il serait presque impossible pour les sites de rang inférieur de gagner un rang inférieur aux liens de ce que Google appelle les super-autorités. Pour lutter contre cela, des limites d'autorité sont créées pour chaque site / page avec de grands scores d'autorité. De plus, chaque lien est évalué, tel qu'il existe, pour la qualité sur la base de quelques critères simples et obtient un score de 0 à 0,9. Ce qui est réellement passé est un classement basé sur le plafond d'autorité calculé par la valeur du lien. Il est facile de voir que la page PR6 ne passe pas PR3, mais quelque chose de beaucoup plus bas. Cela a pour effet de créer une courbe plus naturelle dans le schéma PageRank qui peut être ajustée.
Autrefois, à une époque où les roues étaient carrées, il était possible de créer plusieurs sites qui se lient les uns aux autres dans le but de créer un profil de classement. Les spammeurs ne le savent que trop bien. Pour que cela fonctionne, il faudrait créer un site de super autorité qui passe ensuite le rang avec plus de parcimonie et de stratégie à des sites spécifiques qui se lient les uns aux autres. Il s'agit d'une combinaison d'une topologie "à rayons et concentrateurs" avec une topologie "maillée" où le site de super autorité est utilisé comme concentrateur pour amorcer le maillage. Je l'ai fait, certes, dans les jours qui ont précédé, c'était vraiment un problème. Mais il ne fallut pas longtemps pour que les spammeurs se frayent un chemin. Bien sûr, j'ai démantelé mon schéma de liens à ce stade. DUH! Je ne suis pas bête.
Alors, qu'a fait Google? Il a profité d'informations facilement collectées. À cette époque de l'histoire, les options d'enregistrement d'un site étaient limitées. Network Solutions, par exemple, était le seul endroit où les sites .com, .org et .net pouvaient être enregistrés. Aussi, à cette époque, les inscriptions n'étaient pas privées. Ils étaient publics. Il était beaucoup plus facile de créer des relations (appelées clusters en sémantique ou domaines scientifiques) entre les sites à l'aide des informations d'enregistrement, ce que Google a fait exactement. Pour chaque site du moteur de recherche, les informations d'enregistrement ont été collectées et écrites dans une base de données sémantique spéciale qui créerait des relations en utilisant toutes les informations disponibles dans l'enregistrement. De plus, Google a commencé à mapper les adresses IP aux sites, aux hébergeurs Web, aux entreprises, ASN (AS Number) basé sur les enregistrements APNIC, les emplacements GEO, y compris les pays et les paramètres régionaux, etc. Les relations entre sites et réseaux faisaient également partie de la base de données sémantique. Une partie de ce qui était nécessaire était un moyen d'établir la confiance pour les sites et donc le début de TrustRank souvent totalement ignoré dans le monde du référencement. Bien qu'il soit beaucoup plus difficile d'établir ces relations de nos jours, Google a trouvé avantageux de devenir un registraire afin de contourner l'enregistrement privé et d'ajouter de nouveaux outils au mélange, y compris des informations trouvées sur les sites eux-mêmes. Je n'entrerai pas dans tout cela, mais il suffit de dire que Google peut aller jusqu'à identifier une œuvre non signée auprès d'un auteur en utilisant certaines de ces techniques. Mais sachez ça. Sites associés à d'autres sites de qualité inférieure, ou sur des hôtes ou réseaux de qualité inférieure, souffrent un coup dans leur Volkscore. Cela vaut également pour les éléments trouvés dans les informations d'enregistrement. Souvent, Google peut repérer un site de spam potentiel uniquement sur la base des informations d'enregistrement, de l'hôte ou du réseau. Ça marche vraiment.
Une autre partie du processus consistait à examiner les modèles de liens en utilisant des cartes de modèles établies basées sur des techniques connues de schémas de liens. De plus, en utilisant l'IA et les méthodes d'apprentissage, de nouveaux modèles peuvent être découverts, confirmés et la base de données de modèles mise à jour automatiquement.
C'est quelque chose dans lequel Google garde une main humaine. Google a utilisé des personnes pour évaluer la qualité du site dans le cadre de l'ensemencement des systèmes d'IA qui déterminent la qualité d'un site et pour trouver de nouveaux modèles de liens. De temps en temps, Google a même sollicité des utilisateurs pour aider à identifier les sites de faible qualité et les programmes de liens pour cette seule raison. Il a utilisé ces nouvelles informations non seulement pour étudier, cibler et mettre à jour les modèles de liens, mais pour amorcer l'IA en apprenant à repérer d'autres schémas qui pourraient exister.
Alors, que doit-on faire de toutes ces connaissances?
Une entreprise peut et doit être en mesure de créer un lien vers ses autres sites sans crainte de pénalité et elle peut aussi longtemps que c'est dans les limites que tout webmaster réfléchi et honnête suivrait. De plus, les liens entrants qui suivent ce même mantra devraient convenir. En utilisant cette énorme base de données sémantique et base de données de modèles de liens, Google fait un travail assez décent pour identifier les sites qui se lient les uns aux autres naturellement. Mais il y a un nouveau problème.
Ce qui est nouveau
Les schémas de liaison deviennent de plus en plus sophistiqués et complexes. Certains d'entre nous connaissent le bogue de lien JC Penny d'il y a quelques années. Cela a rendu Google paranoïaque et occupé alors qu'il tentait de mettre fin définitivement à ce problème. Mais ce n'est pas une tâche facile comme vous pouvez l'imaginer.
De plus, il existe des tonnes de sites créés pour gagner du trafic de recherche qui créent d'énormes quantités de liens vers des sites. Nous connaissons ces sites; ces sites de performances SEO qui grattent Alexa et d'autres données et établissent un lien vers les sites d'origine mentionnés. Nous pouvons ajouter des sites de mots clés, des sites whois, etc. Google les considère comme de très mauvaise qualité à quelques exceptions près comme domaintools.com et robtex.com. De plus, l'algorithme de passage de rang d'origine était considéré comme une motivation pour rechercher des liens contre nature à partir de sites d'annuaire, de blogs, de forums, etc.
Bien qu'il y ait eu quelques batailles gagnées sur ces sites et liens pour le classement, Google, à juste titre, a décidé que les liens naturels étaient préférés. Dans ce cadre, Google a réduit les liens entrants comme signal de classement. Je suppose que la première étape a été aussi simple que d'ajuster les plafonds d'autorité. Ce qui était un lien acceptable complètement hors du contrôle du propriétaire du site créé par ces sites indésirables, est maintenant considéré comme une partie très réelle du système de classement. Il a toujours été discuté au sein de la communauté SEO qu'un bon rapport entre de bons liens et des liens de faible valeur par rapport à d'autres sites était quelque chose à atteindre. Mais aujourd'hui (c'est-à-dire depuis mars 2015), avec l'outil de désaveu, il semble que Google préfère que ces liens de faible qualité ne se produisent pas et qu'une pression à la baisse soit appliquée pour atténuer ces liens à l'aide de leur outil. L'idée semble être de nettoyer l'index des liens. Par exemple, topalternate.com et aolstalker.com peuvent créer des centaines et des milliers de liens vers n'importe quel site. Avec l'outil de désaveu, Google voit une opportunité dont les webmasters devraient profiter pour contrôler la façon dont Google voit les liens entrants. Alors que d'une part, les liens de faible valeur ne sont pas nuisibles, Google préfère qu'ils disparaissent.
Google préfère les liens naturels.
L'énigme
Il devient de plus en plus difficile pour un webmaster de créer des liens. Alors que les référenceurs discutent sans cesse de toutes les méthodes de création de liens entrants, il est devenu presque impossible de le faire et cela depuis très longtemps. Comme vous le faites remarquer, bien qu'il existe des webmasters accessibles, la plupart sont beaucoup trop occupés à créer leur propre contenu et leurs liens entrants. Ironique hein? C'est devenu un peu une frénésie alimentaire. J'ai arrêté de chercher des liens entrants il y a de nombreuses années lorsque l'effort a abouti à si peu de liens. Je me suis également arrêté lorsque, dans certains des brevets Google, il était clair que les liens de ce type seraient examinés plus en détail.
Cependant, il y a de bonnes nouvelles. Sorta.
Google pense en partie que l'engagement est roi avec le contenu. Créer un buzz est tout le buzz. Les médias sociaux sont considérés comme le nouveau système de renforcement des liens et d'autorité. Google se tourne de plus en plus vers les médias sociaux, l'autorité et l'engagement. Le problème est le suivant. Tous les sites et, en fait, les sites de grande valeur et véritablement faisant autorité (en ce qui concerne le contenu) ne conviennent pas au nouveau paradigme des médias sociaux. Par exemple, pensez à toutes les recherches écrites par des professeurs, des ingénieurs et de vrais leaders d'opinion (y compris les ingénieurs de Google)? La recherche n'est guère passionnante et un professeur n'est pas susceptible de s'engager dans les médias sociaux pour promouvoir le contenu pour les masses alors que c'est clairement pour un marché segmenté.
Ce qui supplante les liens entrants aux yeux de Google, c'est l'engagement social. Bien qu'il y ait une dualité à cet effort; d'une part, Google préfère l'engagement social, d'autre part, Google réduit les liens de Twitter, Facebook, etc., préférant les liens de LinkedIn, Google+, etc., pour ne consulter que récemment Facebook, où l'accès est limité. J'ai toujours cru que Twitter fait plus pour l'engagement social que tout autre réseau social, et pourtant ces liens sont temporaires. éphémère et toujours actualisé.
Google a fait un grand pas dans cette réflexion le 17 juin 2015 avec ce que certains appellent la mise à jour News / Trend. Bien que l'on sache peu de choses sur cette mise à jour, une chose est parfaitement claire. Les sites de tendance sont mieux classés. En effet, avec autant de requêtes basées sur les tendances, Google voulait s'assurer que ces sites se classent bien pour répondre à l'appel. Et donc si votre site n'est pas basé sur les tendances, vous avez vu un coup dans vos positions à partir du 17 juin. C'est un indice, les amis!
Là où les liens entrants fonctionnent toujours.
En un mot (surtout). L'image de marque. Ou quelque chose de similaire. Bien qu'il soit difficile de gagner du terrain dans l'image de marque d'un site qui n'est pas une entreprise ou une marque de produit, après tout, vous devez créer un buzz, suivre les signaux de marque aide vraiment. Plus précisément, être mentionné dans le contenu, être mentionné par rapport à une autre marque, être mentionné comme un produit utile, etc. Pensez à combien de fois MOZ est cité et lié à? Nous considérons ce site comme une super autorité, mais il n'a pas commencé de cette façon. Au fur et à mesure que chaque article a été écrit et découvert, des liens ont été créés. Comme plus de liens sont créés et que les gens suivent ces liens, les webmasters étaient plus disposés à créer des liens similaires. Pensez-y de cette façon. Dans le jeu de référencement en ligne, il y a tellement de gens qui veulent entrer sur le marché et se faire une fortune. En cela, la plupart ne sont pas des penseurs originaux et des perroquets le même ole 'cr @ p de jure encore et encore. Beaucoup ne font que chasser les gros titres SEO et se relient à des sites autorisés à: premièrement, montrer leurs prouesses au sein de la communauté; deuxièmement, pour montrer leurs connaissances sur le sujet; troisièmement, pour ajouter leur point de vue particulier sur le sujet, s'établissant ainsi en tant que leader d'opinion; et quatre, espérons-le, gagner l'autorité sur qui ils sont liés (car cela est également considéré comme un facteur aux yeux de Google). Mais alors que nous savons que 99% de ces sites sont encore indésirables, ces sites surclassent facilement ceux qui sont basés sur des faits et réfléchis dans leur présentation en évitant les tendances et le paradis ne plaise, peuvent avoir une réelle autorité. Il semble que les marchands d'ordures gagnent.
Tous les marchés de contenu ne se prêtent pas à ce niveau d'activité. Cependant, là où il le fait, il ne fait aucun doute que les médias sociaux peuvent mettre votre contenu devant ceux qui lieront à votre contenu et ceux qui veulent entrer dans le jeu. Tentant pour un vieil homme comme moi, mais une douleur dans le cul si vous détestez être social.
Lorsqu'un site réussit à créer de précieux liens entrants, ce sont des sites populaires, à la mode, socialement engagés, les gens veulent créer des liens et promouvoir leur travail. <rant>
Oh oui. Cela aide également à répéter ce qui passe comme un savoir socialement libéral commun, même s'il s'agit d'un taureau pur. Pas de trucs à front élevé. Il suffit de saisir le fruit bas et de le présenter de manière attrayante avec de jolies images (un autre facteur Google de classement). Pendant que nous y sommes, allez-y et faites une vidéo (encore un autre facteur). Allez-y, dansez et chantez vos propres paroles sur un morceau déjà populaire. Cela semble vraiment aider! Homogénéisons Internet devons-nous le remplir de déchets inutiles? </rant>
(Dieu c'était amusant!)
Chapeau noir contre chapeau blanc
Donc, en ce qui concerne Black Hat contre White Hat, vous savez maintenant la différence. Les schémas de liaison, peu importe leur taille, sont Black Hat, tandis que les liens naturels et honnêtes sont White Hat. C'est aussi simple que ça. Et Google a mis un objectif sur le dos de tous ceux qui recherchent un avantage encore un peu louche.
N'hésitez pas à tweeter cette réponse. ;-) (je rigole)