Questions marquées «regression»

Techniques d'analyse de la relation entre une (ou plusieurs) variables "dépendantes" et des variables "indépendantes".

5
Détection de prédicteurs significatifs parmi de nombreuses variables indépendantes
Dans un ensemble de données de deux populations qui ne se chevauchent pas (patients et en bonne santé, total ), je voudrais trouver (sur variables indépendantes) des prédicteurs significatifs pour une variable dépendante continue. Il existe une corrélation entre les prédicteurs. Je voudrais savoir si l'un des prédicteurs est lié …



2
Avons-nous besoin d'une descente de gradient pour trouver les coefficients d'un modèle de régression linéaire?
J'essayais d'apprendre l'apprentissage automatique en utilisant le matériel Coursera . Dans cette conférence, Andrew Ng utilise un algorithme de descente de gradient pour trouver les coefficients du modèle de régression linéaire qui minimiseront la fonction d'erreur (fonction de coût). Pour la régression linéaire, avons-nous besoin d'une descente de gradient? Il …





5
Comment dériver l'estimateur des moindres carrés pour la régression linéaire multiple?
Dans le cas de régression linéaire simple , vous pouvez dériver l'estimateur des moindres carrés sorte que vous n'avez pas besoin de connaître pour estimery=β0+β1xy=β0+β1xy=\beta_0+\beta_1xβ^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2β^1=∑(xi−x¯)(yi−y¯)∑(xi−x¯)2\hat\beta_1=\frac{\sum(x_i-\bar x)(y_i-\bar y)}{\sum(x_i-\bar x)^2}β^0β^0\hat\beta_0β^1β^1\hat\beta_1 Supposons que j'ai , comment puis-je dériver sans estimer ? ou n'est-ce pas possible?y=β1x1+β2x2y=β1x1+β2x2y=\beta_1x_1+\beta_2x_2β^1β^1\hat\beta_1β^2β^2\hat\beta_2


5
Comment gérer les données hiérarchiques / imbriquées dans l'apprentissage automatique
Je vais expliquer mon problème avec un exemple. Supposons que vous souhaitiez prédire le revenu d'un individu en fonction de certains attributs: {âge, sexe, pays, région, ville}. Vous avez un ensemble de données de formation comme ça train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

10
Régression vers la moyenne contre l'erreur du joueur
D'une part, j'ai la régression à la moyenne et d'autre part j'ai l' erreur du joueur . Le sophisme de Gambler est défini par Miller et Sanjurjo (2019) comme «la croyance erronée que les séquences aléatoires ont une tendance systématique au renversement, c'est-à-dire que les séquences de résultats similaires sont …

1
Preuve que les coefficients dans un modèle OLS suivent une distribution t avec (nk) degrés de liberté
Contexte Supposons que nous ayons un modèle des moindres carrés ordinaires où nous avons coefficients dans notre modèle de régression, kkky=Xβ+ϵy=Xβ+ϵ\mathbf{y}=\mathbf{X}\mathbf{\beta} + \mathbf{\epsilon} où est un vecteur de coefficients, est la matrice de conception définie parββ\mathbf{\beta}(k×1)(k×1)(k\times1)XX\mathbf{X} X=⎛⎝⎜⎜⎜⎜⎜⎜11⋮1x11x21xn1x12…⋱………x1(k−1)⋮⋮xn(k−1)⎞⎠⎟⎟⎟⎟⎟⎟X=(1x11x12…x1(k−1)1x21…⋮⋮⋱⋮1xn1……xn(k−1))\mathbf{X} = \begin{pmatrix} 1 & x_{11} & x_{12} & \dots & x_{1\;(k-1)} \\ 1 …

1
Comment les erreurs types sont-elles calculées pour les valeurs ajustées à partir d'une régression logistique?
Lorsque vous prédisez une valeur ajustée à partir d'un modèle de régression logistique, comment les erreurs standard sont-elles calculées? Je veux dire pour les valeurs ajustées , pas pour les coefficients (ce qui implique la matrice d'information des pêcheurs). J'ai seulement découvert comment obtenir les chiffres avec R(par exemple, ici …

3
Interprétation des prédictions simples aux rapports de cotes dans la régression logistique
Je suis un peu nouveau dans l'utilisation de la régression logistique et un peu confus par une divergence entre mes interprétations des valeurs suivantes qui, selon moi, serait la même: valeurs bêta exponentiées probabilité prédite du résultat en utilisant des valeurs bêta. Voici une version simplifiée du modèle que j'utilise, …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.