Une statistique suffisante est une fonction de dimension inférieure des données qui contient toutes les informations pertinentes sur un certain paramètre en soi.
Je suis tombé sur une remarque sur The Chemical Statistician selon laquelle une médiane d'échantillon pourrait souvent être un choix pour une statistique suffisante mais, outre le cas évident d'une ou deux observations où elle est égale à la moyenne de l'échantillon, je ne peux pas penser à une autre …
Je m'apprends quelques statistiques pour le plaisir et j'ai une certaine confusion concernant des statistiques suffisantes . Je vais écrire mes confusions sous forme de liste: Si une distribution a paramètres, aura-t-elle statistiques suffisantes?nnnnnn Existe-t-il une sorte de correspondance directe entre les statistiques suffisantes et les paramètres? Ou bien les …
Je viens de commencer à étudier les statistiques et je n'arrive pas à comprendre intuitivement la suffisance. Pour être plus précis, je ne comprends pas comment montrer que les deux paragraphes suivants sont équivalents: En gros, étant donné un ensemble X de données indépendantes distribuées de manière identique conditionnées sur …
Contexte : Je veux tracer une ligne dans un nuage de points qui n'apparaît pas paramétrique, donc j'utilise geom_smooth()in ggplotin R. Il retourne automatiquement geom_smooth: method="auto" and size of largest group is >=1000, so using gam with formula: y ~ s(x, bs = "cs"). Use 'method = x' to change …
Soit un échantillon aléatoire de la distribution uniforme sur , où a <b . Soit Y_1 et Y_n les statistiques de commande les plus grandes et les plus petites. Montrer que la statistique (Y_1, Y_n) est une statistique suffisante complétée conjointement pour le paramètre \ theta = (a, b) . …
Supposons qu'une variable aléatoire scalaire appartient à une famille exponentielle à paramètres vectoriels avec pdfXXX fX(x|θ)=h(x)exp(∑i=1sηi(θ)Ti(x)−A(θ))fX(x|θ)=h(x)exp(∑i=1sηi(θ)Ti(x)−A(θ)) f_X(x|\boldsymbol \theta) = h(x) \exp\left(\sum_{i=1}^s \eta_i({\boldsymbol \theta}) T_i(x) - A({\boldsymbol \theta}) \right) où θ=(θ1,θ2,⋯,θs)Tθ=(θ1,θ2,⋯,θs)T{\boldsymbol \theta} = \left(\theta_1, \theta_2, \cdots, \theta_s \right )^T est le vecteur de paramètre et T(x)=(T1(x),T2(x),⋯,Ts(x))TT(x)=(T1(x),T2(x),⋯,Ts(x))T\mathbf{T}(x)= \left(T_1(x), T_2(x), \cdots,T_s(x) \right)^T est …
Existe-t-il une preuve mathématique formelle que la solution au problème des chars allemands est fonction uniquement des paramètres k (nombre d'échantillons observés) et m (valeur maximale parmi les échantillons observés)? En d'autres termes, peut-on prouver que la solution est indépendante des autres valeurs d'échantillon en plus de la valeur maximale?
Cette question est tirée de l'introduction de Robert Hogg aux statistiques mathématiques, 6e version, problème 7.4.9, page 388. Laissez X1,...,XnX1,...,XnX_1,...,X_n soit iid avec pdf f(x;θ)=1/3θ,−θ<x<2θ,f(x;θ)=1/3θ,−θ<x<2θ,f(x;\theta)=1/3\theta,-\theta0 . (a) Trouvez la mle θ de θθ^θ^\hat{\theta}θθ\theta (b) est θ une statistique suffisante pour θ ? Pourquoi ?θ^θ^\hat{\theta}θθ\theta (c) est (n+1)θ^/n(n+1)θ^/n(n+1)\hat{\theta}/n la MVUE unique …
Où puis-je trouver une preuve du théorème de Pitman – Koopman – Darmois? Je google depuis pas mal de temps. Curieusement, de nombreuses notes mentionnent ce théorème mais aucune d'entre elles n'en présente la preuve.
Considérons un échantillon aléatoire où sont iid des variables aléatoires de où . Vérifiez si est une statistique suffisante pour .{X1,X2,X3}{X1,X2,X3}\{X_1,X_2,X_3\}XiXiX_iBernoulli(p)Bernoulli(p)Bernoulli(p)p∈(0,1)p∈(0,1)p\in(0,1)T(X)=X1+2X2+X3T(X)=X1+2X2+X3T(X)=X_1+2X_2+X_3ppp Premièrement, comment trouver la distribution de ? Ou devrait-il être décomposé en et cela suivra-t-il ? Je ne pense pas car notez que toutes les variables ne sont pas …
Ma question découle de la lecture de la lecture de «L'estimation d'une distribution de Dirichlet» de Minka , qui énonce ce qui suit sans preuve dans le contexte de la dérivation d'un estimateur du maximum de vraisemblance pour une distribution de Dirichlet basée sur des observations de vecteurs aléatoires: Comme …
La définition la plus simple d'une statistique suffisante dans la perspective fréquentiste est donnée ici dans Wikipedia . Cependant, je suis récemment tombé sur un livre bayésien, avec la définition . Il est indiqué dans le lien que les deux sont équivalents, mais je ne vois pas comment. Aussi, dans …
Description générale Un estimateur efficace (dont la variance d'échantillon est égale à la borne de Cramér – Rao) maximise-t-il la probabilité d'être proche du vrai paramètre ?θθ\theta Disons que nous comparons la différence ou la différence absolue entre l'estimation et le vrai paramètreΔ^=θ^−θΔ^=θ^−θ\hat\Delta = \hat \theta - \theta La distribution …
La définition d'une statistique suffisante est: Soit X1, . . . ,XnX1,...,XnX_1,...,X_n être un échantillon aléatoire d'une distribution indexée par un paramètre θθ\theta. LaisserTTTêtre une statistique. Supposons que, pour chaqueθθ\theta et toutes les valeurs possibles ttt de TTT, la distribution conjointe conditionnelle de X1, . .. ,XnX1,...,XnX_1,...,X_n étant donné que …
Mon problème de devoirs est de donner un contre-exemple où une certaine statistique n'est en général pas suffisamment minimale. Quels que soient les détails de la recherche d'un contre-exemple particulier pour cette statistique particulière, cela me pose la question suivante: Question: Comment peut-on formuler la condition de ne pas être …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.