J'aime le livre de G van Belle sur les règles statistiques statistiques , et dans une moindre mesure, les erreurs communes en statistique (et comment les éviter) de Phillip I Good et James W. Hardin. Ils traitent des pièges courants lors de l'interprétation des résultats d'études expérimentales et observationnelles et fournissent des recommandations pratiques en matière d'inférence statistique ou d'analyse exploratoire de données. Mais j’ai le sentiment que les directives "modernes" manquent quelque peu, en particulier du fait de l’utilisation croissante de statistiques robustes et computationnelles dans divers domaines, ou de l’introduction de techniques issues de la communauté de l’apprentissage automatique, par exemple la biostatistique clinique ou l’épidémiologie génétique.
Outre les astuces informatiques ou les pièges courants de la visualisation des données qui pourraient être abordés ailleurs, j'aimerais poser la question suivante: Quelles sont les principales règles empiriques que vous recommanderiez pour une analyse efficace des données? ( une règle par réponse, s'il vous plaît ).
Je songe aux lignes directrices que vous pourriez donner à un collègue, à un chercheur sans connaissances approfondies en modélisation statistique ou à un étudiant dans un cours intermédiaire à avancé. Cela peut concerner différentes étapes de l'analyse des données, telles que les stratégies d'échantillonnage, la sélection de caractéristiques ou la création de modèles, la comparaison de modèles, l'estimation ultérieure, etc.