Questions marquées «frequentist»

Dans l'approche fréquentiste de l'inférence, les procédures statistiques sont évaluées par leur performance sur une longue période hypothétique de répétitions d'un processus réputé avoir généré les données.

6
Interprétation bayésienne vs fréquentiste de la probabilité
Quelqu'un peut-il donner un bon aperçu des différences entre l'approche bayésienne et l'approche fréquentiste de la probabilité? D'après ce que j'ai compris: Le point de vue fréquentiste est que les données sont un échantillon aléatoire répétable (variable aléatoire) avec une fréquence / probabilité spécifique (définie comme la fréquence relative d'un …

5
Les statisticiens en activité se soucient-ils de la différence entre inférence fréquentiste et bayésienne?
En tant qu'étranger, il semble y avoir deux points de vue divergents sur la manière de procéder à l'inférence statistique. Les deux méthodes différentes sont-elles considérées comme valables par des statisticiens en activité? Est-ce que choisir est considéré davantage comme une question philosophique? Ou bien la situation actuelle est-elle considérée …

5
Pensez comme un bayésien, vérifiez comme un fréquentiste: qu'est-ce que cela signifie?
Je regarde des diapositives de cours sur un cours de science des données que vous pouvez trouver ici: https://github.com/cs109/2015/blob/master/Lectures/01-Introduction.pdf Malheureusement, je ne peux pas voir la vidéo de cette conférence et à un moment de la diapositive, le présentateur a le texte suivant: Quelques principes clés Penser comme un Bayésien, …



5
Comment gérer les données hiérarchiques / imbriquées dans l'apprentissage automatique
Je vais expliquer mon problème avec un exemple. Supposons que vous souhaitiez prédire le revenu d'un individu en fonction de certains attributs: {âge, sexe, pays, région, ville}. Vous avez un ensemble de données de formation comme ça train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 


3
Y a-t-il une différence entre fréquentiste et bayésien sur la définition de la vraisemblance?
Certaines sources affirment que la fonction de vraisemblance n'est pas une probabilité conditionnelle, d'autres le disent. C'est très déroutant pour moi. Selon la plupart des sources que j'ai vues, la probabilité d'une distribution avec le paramètre , devrait être un produit de fonctions de masse de probabilité pour n échantillons …

4
Quelles sont les valeurs correctes pour la précision et le rappel dans les cas de bord?
La précision est définie comme: p = true positives / (true positives + false positives) Est - il exact que, true positiveset false positivesapproche 0, la précision approche 1? Même question pour rappel: r = true positives / (true positives + false negatives) J'implémente actuellement un test statistique où j'ai …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 



2
Pourquoi l'estimation du maximum de vraisemblance est-elle considérée comme une technique fréquentiste
Pour moi, les statistiques Frequentist sont synonymes d'essayer de prendre des décisions qui sont bonnes pour tous les échantillons possibles. C'est-à-dire qu'une règle de décision fréquentiste devrait toujours essayer de minimiser le risque fréquentiste, qui dépend d'une fonction de perte et du véritable état de la nature :L θ 0δδ\deltaLLLθ0θ0\theta_0 …

2
Si le principe de vraisemblance se heurte à la probabilité fréquentiste, alors en rejetons-nous un?
Dans un commentaire récemment publié ici, un commentateur a signalé un blog de Larry Wasserman qui souligne (sans aucune source) que l'inférence fréquentiste se heurte au principe de vraisemblance. Le principe de vraisemblance dit simplement que les expériences produisant des fonctions de vraisemblance similaires devraient produire une inférence similaire. Deux …

3
Les statistiques bayésiennes sont-elles vraiment une amélioration par rapport aux statistiques traditionnelles (fréquentistes) pour la recherche comportementale?
Lors de la participation à des conférences, les partisans des statistiques bayésiennes ont poussé un peu à évaluer les résultats des expériences. Elle est considérée comme à la fois plus sensible, appropriée et sélective vis-à-vis des découvertes authentiques (moins de faux positifs) que les statistiques fréquentistes. J'ai exploré un peu …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.