Questions marquées «convergence»

La convergence signifie généralement qu'une séquence d'une certaine quantité d'échantillon s'approche d'une constante lorsque la taille de l'échantillon tend vers l'infini. La convergence est également une propriété d'un algorithme itératif pour se stabiliser sur une valeur de visée.

1
Quand la fonction de distribution binomiale est-elle supérieure / inférieure à sa fonction de distribution de Poisson limite?
Soit B(n,p,r)B(n,p,r)B(n,p,r) la fonction de distribution binomiale (DF) avec les paramètres n∈Nn∈Nn \in \mathbb N et p∈(0,1)p∈(0,1)p \in (0,1) évalués à r∈{0,1,…,n}r∈{0,1,…,n}r \in \{0,1,\ldots,n\} : et soit dénotons le Poisson DF avec le paramètre évalué à r \ in \ {0,1,2, \ ldots \} : F(ν,r)a∈R+r∈{0,1,2,…}F(a,r)=e-ar ∑ i=0ajeB(n,p,r)=∑i=0r(ni)pi(1−p)n−i,B(n,p,r)=∑i=0r(ni)pi(1−p)n−i,\begin{equation} B(n,p,r) = …

1
Les degrés de liberté peuvent-ils être un nombre non entier?
Lorsque j'utilise GAM, cela me donne un DF résiduel de (dernière ligne du code). Qu'est-ce que ça veut dire? Au-delà de l'exemple GAM, en général, le nombre de degrés de liberté peut-il être un nombre non entier?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

5
Explication intuitive de la convergence dans la distribution et de la convergence dans la probabilité
Quelle est la différence intuitive entre une variable aléatoire convergeant en probabilité et une variable aléatoire convergeant en distribution? J'ai lu de nombreuses définitions et équations mathématiques, mais cela n'aide pas vraiment. (Veuillez garder à l'esprit que je suis un étudiant de premier cycle étudiant en économétrie.) Comment une variable …

2
Pourquoi l'algorithme de maximisation des attentes est-il garanti de converger vers un optimum local?
J'ai lu quelques explications sur l'algorithme EM (par exemple de Bishop's Pattern Recognition and Machine Learning et de Roger and Gerolami First Course on Machine Learning). La dérivation de EM est ok, je le comprends. Je comprends également pourquoi l'algorithme couvre quelque chose: à chaque étape, nous améliorons le résultat …



3
Consistance asymptotique avec variance asymptotique non nulle - qu'est-ce que cela représente?
La question a déjà été soulevée, mais je veux poser une question spécifique qui tentera d'obtenir une réponse qui la clarifiera (et la classera): Dans "Poor Man's Asymptotics", on garde une distinction claire entre (a) une séquence de variables aléatoires qui converge en probabilité vers une constante contrairement à (b) …

1
Théorème central limite et loi des grands nombres
J'ai une question très débutante concernant le théorème de limite centrale (CLT): Je sais que le CLT indique qu'une moyenne de variables aléatoires iid est distribuée approximativement normalement (pour , où est l'indice des sommets) ou que la variable aléatoire normalisée aurait une distribution normale standard.n→∞n→∞n \to \inftynnn Or, la …



2
Une vue dynamique des systèmes du théorème central limite?
(Initialement publié sur MSE.) J'ai vu de nombreuses discussions heuristiques du théorème de la limite centrale classique parler de la distribution normale (ou de n'importe laquelle des distributions stables) comme d'un "attracteur" dans l'espace des densités de probabilité. Par exemple, considérez ces phrases en haut de Wikipedia traitement : Dans …


1
Stan
Je parcourais la documentation de Stan qui peut être téléchargée ici . J'étais particulièrement intéressé par leur implémentation du diagnostic Gelman-Rubin. Le document original Gelman & Rubin (1992) définit le facteur de réduction d'échelle potentiel (PSRF) comme suit: Soit Xi,1,…,Xi,NXi,1,…,Xi,NX_{i,1}, \dots , X_{i,N} la iii ème chaîne de Markov échantillonnée, …


1
La vraisemblance logarithmique dans GLM a-t-elle garanti la convergence vers les maxima mondiaux?
Mes questions sont: Les modèles linéaires généralisés (GLM) convergent-ils vers un maximum global? Si oui, pourquoi? De plus, quelles contraintes y a-t-il sur la fonction de liaison pour assurer la convexité? Ma compréhension des GLM est qu'ils maximisent une fonction de vraisemblance hautement non linéaire. Ainsi, j'imagine qu'il existe plusieurs …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.