Questions marquées «factor-analysis»

L'analyse factorielle est une technique de variable latente de réduction de dimensionnalité qui remplace les variables intercorrélées par un plus petit nombre de variables latentes continues appelées facteurs. On pense que ces facteurs sont responsables des intercorrélations. [Pour l'analyse factorielle confirmatoire, veuillez utiliser la balise «facteur confirmatoire». De plus, le terme "facteur" de l'analyse factorielle ne doit pas être confondu avec "facteur" comme prédicteur catégorique d'une régression / ANOVA.]



6
Existe-t-il une bonne raison d'utiliser PCA au lieu de EFA? En outre, l’ACP peut-elle remplacer l’analyse factorielle?
Dans certaines disciplines, l’ACP (analyse en composantes principales) est systématiquement utilisée sans justification, et APC et EFA (analyse factorielle exploratoire) sont considérées comme des synonymes. J'ai donc récemment utilisé PCA pour analyser les résultats d'une étude de validation d'échelle (21 items sur une échelle de Likert en 7 points, supposée …

2
Quelle est la relation entre l'analyse en composantes indépendantes et l'analyse factorielle?
Je suis novice en Analyse de Composants Indépendants (ICA) et n’ai qu’une compréhension rudimentaire de la méthode. Il me semble que l’ACI est semblable à l’analyse factorielle (AF) à une exception près: l’ACI suppose que les variables aléatoires observées sont une combinaison linéaire de composants / facteurs indépendants non gaussiens, …



3
Est-ce que le signe de scores ou de charges dans PCA ou FA a un sens? Puis-je inverser le signe?
J'ai effectué une analyse en composantes principales (ACP) avec R en utilisant deux fonctions différentes ( prcompet princomp) et j'ai observé que les scores de l'ACP différaient par leur signe. Comment cela peut-il être? Considère ceci: set.seed(999) prcomp(data.frame(1:10,rnorm(10)))$x PC1 PC2 [1,] -4.508620 -0.2567655 [2,] -3.373772 -1.1369417 [3,] -2.679669 1.0903445 [4,] …
37 r  pca  factor-analysis 

1
Quelle est la raison intuitive derrière les rotations dans l'analyse factorielle / ACP et comment sélectionner la rotation appropriée?
Mes questions Quelle est la raison intuitive derrière la rotation des facteurs dans l'analyse factorielle (ou des composants de la PCA)? D'après ce que je comprends, si les variables sont presque également chargées dans les principaux composants (ou facteurs), il est évidemment difficile de différencier les composants. Donc, dans ce …



5
Comment gérer les données hiérarchiques / imbriquées dans l'apprentissage automatique
Je vais expliquer mon problème avec un exemple. Supposons que vous souhaitiez prédire le revenu d'un individu en fonction de certains attributs: {âge, sexe, pays, région, ville}. Vous avez un ensemble de données de formation comme ça train <- data.frame(CountryID=c(1,1,1,1, 2,2,2,2, 3,3,3,3), RegionID=c(1,1,1,2, 3,3,4,4, 5,5,5,5), CityID=c(1,1,2,3, 4,5,6,6, 7,7,7,8), Age=c(23,48,62,63, 25,41,45,19, …
29 regression  machine-learning  multilevel-analysis  correlation  dataset  spatial  paired-comparisons  cross-correlation  clustering  aic  bic  dependent-variable  k-means  mean  standard-error  measurement-error  errors-in-variables  regression  multiple-regression  pca  linear-model  dimensionality-reduction  machine-learning  neural-networks  deep-learning  conv-neural-network  computer-vision  clustering  spss  r  weighted-data  wilcoxon-signed-rank  bayesian  hierarchical-bayesian  bugs  stan  distributions  categorical-data  variance  ecology  r  survival  regression  r-squared  descriptive-statistics  cross-section  maximum-likelihood  factor-analysis  likert  r  multiple-imputation  propensity-scores  distributions  t-test  logit  probit  z-test  confidence-interval  poisson-distribution  deep-learning  conv-neural-network  residual-networks  r  survey  wilcoxon-mann-whitney  ranking  kruskal-wallis  bias  loss-functions  frequentist  decision-theory  risk  machine-learning  distributions  normal-distribution  multivariate-analysis  inference  dataset  factor-analysis  survey  multilevel-analysis  clinical-trials 

1
Meilleures méthodes d'extraction de facteurs en analyse factorielle
SPSS propose plusieurs méthodes d'extraction de facteurs: Composants principaux (ce qui n'est pas du tout l'analyse factorielle) Moindres carrés non pondérés Moindres carrés généralisés Plausibilité maximum Axe principal Affacturage alpha Affacturage d'image En ignorant la première méthode, qui n'est pas l'analyse factorielle (mais l'analyse en composantes principales, ACP), laquelle de …

1
Existe-t-il une analyse factorielle ou une ACP pour les données ordinales ou binaires?
J'ai terminé l'analyse en composantes principales (PCA), l'analyse factorielle exploratoire (EFA) et l'analyse factorielle confirmatoire (CFA), en traitant les données avec une échelle de likert (réponses à 5 niveaux: aucune, un peu, certaines, ..) en continu variable. Ensuite, en utilisant Lavaan, j'ai répété le CFA définissant les variables comme catégoriques. …

1
Calcul de la répétabilité des effets d'un modèle lmer
Je viens de tomber sur cet article , qui décrit comment calculer la répétabilité (aka fiabilité, aka corrélation intraclasse) d'une mesure via la modélisation d'effets mixtes. Le code R serait: #fit the model fit = lmer(dv~(1|unit),data=my_data) #obtain the variance estimates vc = VarCorr(fit) residual_var = attr(vc,'sc')^2 intercept_var = attr(vc$id,'stddev')[1]^2 #compute …
28 mixed-model  reliability  intraclass-correlation  repeatability  spss  factor-analysis  survey  modeling  cross-validation  error  curve-fitting  mediation  correlation  clustering  sampling  machine-learning  probability  classification  metric  r  project-management  optimization  svm  python  dataset  quality-control  checking  clustering  distributions  anova  factor-analysis  exponential  poisson-distribution  generalized-linear-model  deviance  machine-learning  k-nearest-neighbour  r  hypothesis-testing  t-test  r  variance  levenes-test  bayesian  software  bayesian-network  regression  repeated-measures  least-squares  change-scores  variance  chi-squared  variance  nonlinear-regression  regression-coefficients  multiple-comparisons  p-value  r  statistical-significance  excel  sampling  sample  r  distributions  interpretation  goodness-of-fit  normality-assumption  probability  self-study  distributions  references  theory  time-series  clustering  econometrics  binomial  hypothesis-testing  variance  t-test  paired-comparisons  statistical-significance  ab-test  r  references  hypothesis-testing  t-test  normality-assumption  wilcoxon-mann-whitney  central-limit-theorem  t-test  data-visualization  interactive-visualization  goodness-of-fit 

1
Les degrés de liberté peuvent-ils être un nombre non entier?
Lorsque j'utilise GAM, cela me donne un DF résiduel de (dernière ligne du code). Qu'est-ce que ça veut dire? Au-delà de l'exemple GAM, en général, le nombre de degrés de liberté peut-il être un nombre non entier?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.