Existe-t-il un moyen plus scientifique de déterminer le nombre de chiffres significatifs à déclarer pour une moyenne ou un intervalle de confiance dans une situation qui est assez standard - par exemple, la première année au collège.
J'ai vu Nombre de chiffres significatifs à mettre dans un tableau , Pourquoi n'utilisons-nous pas des chiffres significatifs et Nombre de chiffres significatifs dans un ajustement chi carré , mais ceux-ci ne semblent pas mettre le doigt sur le problème.
Dans mes cours, j'essaie d'expliquer à mes élèves que c'est un gaspillage d'encre de rapporter 15 chiffres significatifs quand ils ont une si large erreur standard dans leurs résultats - mon intuition était qu'elle devrait être arrondie à environ quelque part de l'ordre de . Ce n'est pas trop différent de ce qui est dit par ASTM - Reporting Test Results se référant à E29 où ils disent qu'il devrait être compris entre et .
ÉDITER:
Lorsque j'ai un ensemble de chiffres comme x
ci-dessous, combien de chiffres dois-je utiliser pour imprimer la moyenne et l'écart-type?
set.seed(123)
x <- rnorm(30) # default mean=0, sd=1
# R defaults to 7 digits of precision options(digits=7)
mean(x) # -0.04710376 - not far off theoretical 0
sd(x) # 0.9810307 - not far from theoretical 1
sd(x)/sqrt(length(x)) # standard error of mean 0.1791109
QUESTION: Expliquez en détail quelle est la précision (lorsqu'il existe un vecteur de nombres à double précision) pour la moyenne et l'écart-type et écrivez une fonction pédagogique R simple qui imprimera la moyenne et l'écart-type au nombre significatif de chiffres qui se reflète dans le vecteur x
.
R
(ainsi que dans presque tous les logiciels), l'impression est contrôlée par une valeur globale (voir options(digits=...)
), et non par aucune considération de précision.