Questions marquées «autoregressive»

Le modèle autorégressif (AR) est une série chronologique de modélisation de processus stochastique, qui spécifie la valeur de la série de manière linéaire en fonction des valeurs précédentes.



2
Si un modèle de série chronologique auto-régressif n'est pas linéaire, a-t-il encore besoin de stationnarité?
Penser à utiliser des réseaux de neurones récurrents pour la prévision de séries chronologiques. Ils implémentent essentiellement une sorte d'auto-régression non linéaire généralisée, par rapport aux modèles ARMA et ARIMA qui utilisent l'auto-régression linéaire. Si nous effectuons une auto-régression non linéaire, est-il toujours nécessaire que les séries chronologiques soient stationnaires …




3
Quelle est la différence entre le modèle déterministe et le modèle stochastique?
Modèle linéaire simple: x=αt+ϵtx=αt+ϵtx=\alpha t + \epsilon_t où ~ iid N ( 0 , σ 2 )ϵtϵt\epsilon_tN(0,σ2)N(0,σ2)N(0,\sigma^2) avec etV a r ( x ) = σ 2E(x)=αtE(x)=αtE(x) = \alpha tVar(x)=σ2Var(x)=σ2Var(x)=\sigma^2 AR (1): Xt=αXt−1+ϵtXt=αXt−1+ϵtX_t =\alpha X_{t-1} + \epsilon_t où ~ iid N ( 0 , σ 2 )ϵtϵt\epsilon_tN(0,σ2)N(0,σ2)N(0,\sigma^2) avec etV a …

3
Pourquoi l'estimateur OLS du coefficient AR (1) est-il biaisé?
J'essaie de comprendre pourquoi OLS donne un estimateur biaisé d'un processus AR (1). Considérez Dans ce modèle, l'exogénéité stricte est violée, c'est-à-dire que et sont corrélés mais et sont pas corrélés. Mais si cela est vrai, pourquoi la dérivation simple suivante ne tient-elle pas? ytεtyt-1εtplim βytϵt=α+βyt−1+ϵt,∼iidN(0,1).yt=α+βyt−1+ϵt,ϵt∼iidN(0,1). \begin{aligned} y_{t} &= \alpha …





1
R et EVue les différences dans les estimations AR (1)
Le problème principal est: je ne peux pas obtenir d'estimations de paramètres similaires avec EViews et R. Pour des raisons que je ne me connais pas, j'ai besoin d'estimer les paramètres de certaines données à l'aide d'EViews. Pour ce faire, sélectionnez l'option NLS (moindres carrés non linéaires) et utilisez la …

4
Modèle d'historique d'événement à temps discret (survie) dans R
J'essaie d'adapter un modèle à temps discret dans R, mais je ne sais pas comment le faire. J'ai lu que vous pouvez organiser la variable dépendante dans différentes lignes, une pour chaque observation de temps, et utiliser la glmfonction avec un lien logit ou cloglog. En ce sens, j'ai trois …
10 r  survival  pca  sas  matlab  neural-networks  r  logistic  spatial  spatial-interaction-model  r  time-series  econometrics  var  statistical-significance  t-test  cross-validation  sample-size  r  regression  optimization  least-squares  constrained-regression  nonparametric  ordinal-data  wilcoxon-signed-rank  references  neural-networks  jags  bugs  hierarchical-bayesian  gaussian-mixture  r  regression  svm  predictive-models  libsvm  scikit-learn  probability  self-study  stata  sample-size  spss  wilcoxon-mann-whitney  survey  ordinal-data  likert  group-differences  r  regression  anova  mathematical-statistics  normal-distribution  random-generation  truncation  repeated-measures  variance  variability  distributions  random-generation  uniform  regression  r  generalized-linear-model  goodness-of-fit  data-visualization  r  time-series  arima  autoregressive  confidence-interval  r  time-series  arima  autocorrelation  seasonality  hypothesis-testing  bayesian  frequentist  uninformative-prior  correlation  matlab  cross-correlation 

1
R régression linéaire variable catégorielle valeur «cachée»
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.