Presque toutes les sources ou personnes avec lesquelles j'ai jamais interagi, à l' exception de la source Wolfram que vous avez liée, font référence au processus comme ajustant un modèle aux données . Cela a du sens, car le modèle est l'objet dynamique et les données sont statiques (c'est-à-dire fixes et constantes).
Pour mettre un point là-dessus, j'aime l'approche de Larry Wasserman à ce sujet. Dans son récit, un modèle statistique est un ensemble de distributions. Par exemple, la collection de toutes les distributions normales:
{ Normal ( μ , σ) : μ , σ∈ R , σ> 0 }
ou l'ensemble de toutes les distributions de Poisson:
{ Poisson ( λ ) : λ ∈ R , λ > 0 }
L'ajustement d'une distribution aux données est un algorithme qui combine un modèle statistique avec un ensemble de données (les données sont fixes) et choisit exactement l'une des distributions du modèle comme celle qui reflète le mieux les données.
Le modèle est la chose qui change (en quelque sorte): nous le réduisons d'une collection entière de possibilités en un seul meilleur choix. Les données ne sont que des données; rien ne lui arrive du tout.