Je n'ai pas étudié les statistiques depuis plus de 10 ans (et puis juste un cours de base), alors peut-être que ma question est un peu difficile à comprendre.
Quoi qu'il en soit, ce que je veux faire, c'est réduire le nombre de points de données dans une série. L'axe des x est le nombre de millisecondes depuis le début de la mesure et l'axe des y est la lecture pour ce point.
Il y a souvent des milliers de points de données, mais je n'en ai besoin que de quelques centaines. Ma question est donc la suivante: comment réduire avec précision le nombre de points de données?
Comment s'appelle le processus? (Donc je peux le google) Y a-t-il des algorithmes préférés (je vais l'implémenter en C #)
J'espère que vous avez des indices. Désolé pour mon manque de terminologie appropriée.
Edit: Plus de détails viennent ici:
Les données brutes que j'ai obtenues sont des données de fréquence cardiaque, et sous forme de nombre de millisecondes depuis le dernier battement. Avant de tracer les données, je calcule le nombre de millisecondes à partir du premier échantillon et le bpm (battements par minute) à chaque point de données (60000 / timesincelastbeat).
Je veux visualiser les données, c'est-à-dire les tracer dans un graphique linéaire. Je veux réduire le nombre de points dans le graphique de milliers à quelques centaines.
Une option serait de calculer le bpm moyen pour chaque seconde de la série, ou peut-être toutes les 5 secondes environ. Cela aurait été assez facile si je savais que j'aurais au moins un échantillon pour chacune de ces périodes (secondes de 5 secondes d'intervalle).