Questions marquées «optimization»

Utilisez cette balise pour toute utilisation de l'optimisation dans les statistiques.




1
Comment répartir de manière optimale les tirages lors du calcul de plusieurs attentes
Supposons que nous voulons calculer une certaine attente: EYEX|Y[f(X, Y) ]EOuiEX|Oui[F(X,Oui)]E_YE_{X|Y}[f(X,Y)] Supposons que nous voulions l'approcher en utilisant la simulation de Monte Carlo. EOuiEX| Oui[ f( X, Y) ] ≈ 1R S∑r = 1R∑s = 1SF( xr , s, yr)EOuiEX|Oui[F(X,Oui)]≈1RS∑r=1R∑s=1SF(Xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) Mais supposons qu'il est coûteux de prélever des …




2
Estimation des paramètres avec des modèles linéaires généralisés
Par défaut, lorsque nous utilisons une glmfonction dans R, elle utilise la méthode des moindres carrés itérativement repondérés (IWLS) pour trouver l'estimation du maximum de vraisemblance des paramètres. Maintenant, j'ai deux questions. Les estimations IWLS garantissent-elles le maximum global de la fonction de vraisemblance? D'après la dernière diapositive de cette …

2
Comment puis-je estimer les intervalles de confiance à 95% en utilisant le profilage des paramètres estimés en maximisant une fonction log-vraisemblance en utilisant optim dans R?
Comment puis-je estimer les intervalles de confiance à 95% en utilisant le profilage des paramètres estimés en maximisant une fonction log-vraisemblance en utilisant optim dans R? Je sais que je peux estimer asymptotiquement la matrice de covariance en inversant la toile de jute , mais je crains que mes données …


4
Références sur l'optimisation numérique pour les statisticiens
Je recherche une référence (ou des références) solides sur les techniques d'optimisation numérique destinées aux statisticiens, c'est-à-dire qu'elles appliqueraient ces méthodes à certains problèmes inférentiels standard (par exemple MAP / MLE dans les modèles courants). Des choses comme la descente de gradient (droite et stochastique), l'EM et ses retombées / …

2
Calculer la courbe ROC pour les données
Donc, j'ai 16 essais dans lesquels j'essaie d'authentifier une personne à partir d'un trait biométrique en utilisant Hamming Distance. Mon seuil est fixé à 3,5. Mes données sont ci-dessous et seul l'essai 1 est un vrai positif: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
Quels sont certains des inconvénients de l’optimisation hyperparamétrique bayésienne?
Je suis relativement nouveau dans l'apprentissage automatique et les statistiques, mais je me demandais pourquoi l'optimisation bayésienne n'est pas référée plus souvent en ligne lors de l'apprentissage de l'apprentissage automatique pour optimiser les hyperparamètres de votre algorithme. Par exemple, en utilisant un cadre comme celui-ci: https://github.com/fmfn/BayesianOptimization L'optimisation bayésienne de vos …

1
Quelle est la différence entre maximiser la vraisemblance conditionnelle (log) ou vraisemblance conjointe (log) lors de l'estimation des paramètres d'un modèle?
Considérons une réponse y et de la matrice de données X . Supposons que je crée un modèle de formulaire - y ~ g (X,θθ\theta) (g () pourrait être n'importe quelle fonction de X et θθ\theta) Maintenant, pour estimer θθ\thetaen utilisant la méthode du maximum de vraisemblance (ML), je pourrais …

1
Optimisation bayésienne pour le bruit non gaussien
Une fonction boîte noire F:Rn→ RF:Rn→Rf: \mathbb{R}^n \rightarrow \mathbb{R}, qui est évalué ponctuellement soumis au bruit gaussien, à savoir, F( x ) + N( μ ( x ) , σ( x)2)F(X)+N(μ(X),σ(X)2)f(x) + \mathcal{N}(\mu(x),\sigma(x)^2), peut être minimisé en utilisant l'optimisation bayésienne où un processus gaussien est utilisé comme modèle de fonction …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.