Questions marquées «estimation»

Cette balise est trop générale; veuillez fournir une balise plus spécifique. Pour les questions sur les propriétés d'estimateurs spécifiques, utilisez plutôt la balise [estimateurs].

1
Trouvez UMVUE sur
Laissez X1,X2,...,XnX1,X2,...,XnX_1, X_2, . . . , X_n be iid variables aléatoires ayant pdf fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)fX(x∣θ)=θ(1+x)−(1+θ)I(0,∞)(x)f_X(x\mid\theta) =\theta(1 +x)^{−(1+\theta)}I_{(0,\infty)}(x) où θ>0θ>0\theta >0 . Donnez l'UMVUE de 1θ1θ\frac{1}{\theta} et calculer sa variance J'ai appris deux de ces méthodes pour obtenir des UMVUE: Limite inférieure de Cramer-Rao (CRLB) Lehmann-Scheffe Thereom Je vais tenter cela …

2
Avantage de l'estimation de la densité du noyau par rapport à l'estimation paramétrique
Y a-t-il une raison particulière pour laquelle vous choisirez l'estimation de la densité du noyau plutôt que l'estimation paramétrique? J'apprenais à adapter la distribution à mes données. Cette question m'est venue. La taille de mes données est relativement grande avec 7500 points de données. Réclamations automobiles. Mon objectif est de …

2
Peut-on rejeter une hypothèse nulle avec des intervalles de confiance produits par échantillonnage plutôt que l'hypothèse nulle?
On m'a appris que nous pouvons produire une estimation de paramètre sous la forme d'un intervalle de confiance après échantillonnage à partir d'une population. Par exemple, des intervalles de confiance à 95%, sans hypothèse non respectée, devraient avoir un taux de réussite de 95% pour contenir quel que soit le …


1
Quel modèle d'apprentissage en profondeur peut classer des catégories qui ne s'excluent pas mutuellement
Exemples: J'ai une phrase dans la description de poste: "Java senior engineer in UK". Je veux utiliser un modèle d'apprentissage profond pour le prédire en 2 catégories: English et IT jobs. Si j'utilise un modèle de classification traditionnel, il ne peut prédire qu'une seule étiquette avec softmaxfonction à la dernière …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 

2
Estimateur non biaisé du paramètre poisson
Le nombre d'accidents par jour est une variable aléatoire de Poisson avec le paramètre , sur 10 jours choisis au hasard, le nombre d'accidents a été observé comme 1,0,1,1,2,0,2,0,0,1, ce qui sera un estimateur sans biais de e λ ?λλ\lambdaeλeλe^{\lambda} J'ai essayé de tenter de cette manière: Nous savons que …

2
Comparaison entre les estimateurs de Bayes
Considérons la perte quadratique , avec donné antérieurement où . Soit la probabilité. Trouvez l'estimateur de Bayes .L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi Considérons la perte quadratique pondérée où avec avant . Soit la probabilité. Trouvez l'estimateur de Bayes .Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 Comparer etδπδπ\delta^\piδπ1δ1π\delta^\pi_1 J'ai d'abord remarqué que , et j'ai supposé …


1
De l'identification à l'estimation
Je lis actuellement l'article de Pearl (Pearl, 2009, 2e édition) sur la causalité et la lutte pour établir le lien entre l'identification non paramétrique d'un modèle et l'estimation réelle. Malheureusement, Pearl lui-même est très silencieux sur ce sujet. Pour donner un exemple, j'ai en tête un modèle simple avec un …



2
Estimation des paramètres avec des modèles linéaires généralisés
Par défaut, lorsque nous utilisons une glmfonction dans R, elle utilise la méthode des moindres carrés itérativement repondérés (IWLS) pour trouver l'estimation du maximum de vraisemblance des paramètres. Maintenant, j'ai deux questions. Les estimations IWLS garantissent-elles le maximum global de la fonction de vraisemblance? D'après la dernière diapositive de cette …


2
Comment un a priori uniforme conduit-il aux mêmes estimations du maximum de vraisemblance et du mode de postérieur?
J'étudie différentes méthodes d'estimation ponctuelle et je lis que lors de l'utilisation d'estimations MAP vs ML, lorsque nous utilisons un "a priori uniforme", les estimations sont identiques. Quelqu'un peut-il expliquer ce qu'est un a priori «uniforme» et donner des exemples (simples) de cas où les estimateurs MAP et ML seraient …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.