Nous développons actuellement un site qui compte actuellement 8 millions de pages uniques qui passeront immédiatement à environ 20 millions, et éventuellement à environ 50 millions ou plus.
Avant de critiquer ... Oui, il fournit un contenu unique et utile. Nous traitons continuellement les données brutes des enregistrements publics et en effectuant un nettoyage des données, des cumuls d'entités et une cartographie des relations, nous avons été en mesure de générer un contenu de qualité, en développant un site qui est assez utile et également unique, en partie en raison de l'étendue de la Les données.
C'est PR est 0 (nouveau domaine, pas de liens), et nous obtenons une araignée à un rythme d'environ 500 pages par jour, ce qui nous place à environ 30 000 pages indexées jusqu'à présent. À ce rythme, il faudrait plus de 400 ans pour indexer toutes nos données.
J'ai deux questions:
- Le taux d'indexation est-il directement corrélé à la RP, et je veux dire par là qu'il est suffisamment corrélé pour que l'achat d'un ancien domaine avec une bonne RP nous amène à un taux d'indexation réalisable (aux alentours de 100000 pages par jour).
- Existe-t-il des consultants SEO spécialisés dans l'aide au processus d'indexation lui-même? Par ailleurs, nous nous en sortons très bien avec le référencement, sur la page en particulier, en outre, la concurrence pour nos expressions de mots clés "à longue queue" est assez faible, donc notre succès dépend principalement du nombre de pages indexées.
Notre principal concurrent a atteint environ 20 millions de pages indexées en un peu plus d'un an, ainsi qu'un classement Alexa 2000.
Qualités remarquables que nous avons en place:
- la vitesse de téléchargement des pages est assez bonne (250-500 ms)
- aucune erreur (pas d'erreurs 404 ou 500 lors de l'obtention de l'araignée)
- nous utilisons les outils Google pour les webmasters et nous nous connectons quotidiennement
- URL conviviales en place
- J'ai peur de soumettre des plans de site. Certaines publications de la communauté SEO suggèrent un nouveau site avec des millions de pages et aucun PR n'est suspect. Il y a aussi une vidéo Google de Matt Cutts parlant d'une intégration par étapes de grands sites , afin d'éviter un examen accru (à environ 2h30 dans la vidéo).
- Les liens de sites cliquables fournissent toutes les pages, pas plus de quatre pages de profondeur et généralement pas plus de 250 liens internes (-ish) sur une page.
- Le texte d'ancrage des liens internes est logique et ajoute une pertinence hiérarchique aux données des pages de détails.
- Nous avions précédemment défini le taux d'exploration sur le plus haut sur les outils pour les webmasters (seulement environ une page toutes les deux secondes, max). Je l'ai récemment retourné pour «laisser Google décider», ce qui est conseillé.