Recommandations pour le matériel Elastic Search [fermé]


10

Existe-t-il de bons guides pour le niveau matériel pour prendre en charge ElasticSearch? Les recommandations pour Lucene ou Solr sont-elles un bon point de départ? Nous envisageons de déployer un déploiement commençant par

  • 27 millions de documents, 8 To de données
  • ajouter 300 000 documents par jour

Puis en augmentant cela jusqu'à 10 fois, pour

  • 270 millions de documents, 80 To de données
  • ajouter 3 millions de documents / jour

Il s'agit d'un cas d'utilisation étrange, où les requêtes se chiffreraient en milliers / jour, mais les temps de réponse doivent rester suffisamment bas pour une bonne expérience avec une webapp Ajaxy.


@MarkHenderson: c'est une vraie question (non-jouet) et intéressante. Je pense que votre évaluation du fait qu'il soit "trop ​​localisé" est hors cible.
David

David, la question a été fermée conformément à notre FAQ, nous ne faisons pas de questions d'achat
Mark Henderson

Réponses:


11

Il y a beaucoup de facteurs qui peuvent entrer en jeu, donc je ne pense pas qu'il y ait beaucoup de directives générales.

Vous devez effectuer une évaluation à plus petite échelle, peut-être avec 1 / 5ème de l'ensemble de données initial pour voir comment les choses se comportent lorsque vous lancez votre charge d'indexation et de recherche attendue lors de la configuration. Cela vous permettra de comprendre combien d'espace vos données consommeront réellement dans le moteur de recherche. Pour elasticsearch, cela dépend si vous stockez le json source et comment les champs sont analysés et s'ils sont stockés.

EC2 peut être un moyen raisonnable d'évaluer elasticsearch sans une grosse dépense de H / W.

Pour les logiciels basés sur des clusters, comme elasticsearch, il y a des compromis entre garder le cluster plus petit et plus grand. Un grand cluster est agréable car lorsque vous perdez un serveur, moins de données doivent être réallouées. Un cluster plus petit consomme moins d'énergie et est plus facile à entretenir.

Nous exécutons un cluster avec 35 millions de documents avec une taille d'index totale d'environ 300 Go x 2, car tous les index sont répliqués. Pour prendre en charge cela et un très grand nombre de recherches, nous avons 4 nœuds, chacun avec 24 cœurs, 48 ​​Go de RAM et 1 To de stockage avec 10 000 disques en raid10. Nous avons récemment augmenté la taille du disque pour nous assurer d'avoir plus d'espace pour la tête.

Pour votre cas, je recommanderais plus de RAM et plus de disque. Vous pouvez probablement économiser de l'argent sur les processeurs avec ce volume de recherche.

Un faible volume de recherche nuit en fait aux performances, car les caches (à la fois internes au s / w utilisé et au disque du système d'exploitation) ne seront pas bien réchauffés.

J'espère que cela vous aide, Paul


De quel type de documents parlez-vous? Journaux? De vrais documents?
Manuel Rauber
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.