Questions marquées «agreement-statistics»


2
Fiabilité inter-évaluateur pour les données ordinales ou d'intervalle
Quelles méthodes de fiabilité inter-évaluateurs sont les plus appropriées pour les données ordinales ou d'intervalle? Je pense que la "probabilité d'accord commune" ou la "Kappa" sont conçues pour des données nominales. Alors que "Pearson" et "Spearman" peuvent être utilisés, ils sont principalement utilisés pour deux évaluateurs (bien qu'ils puissent être …

5
Comment puis-je gérer au mieux les effets des marqueurs avec différents niveaux de générosité dans la notation des articles des étudiants?
Environ 600 étudiants ont obtenu un score sur une évaluation approfondie, qui peut être considérée comme ayant une bonne fiabilité / validité. L'évaluation est notée sur 100, et c'est un test à choix multiple marqué par ordinateur. Ces 600 élèves ont également obtenu des notes sur une deuxième évaluation mineure. …

2
Fiabilité inter-évaluateur pour les événements d'une série chronologique avec incertitude sur le temps de l'événement
J'ai plusieurs codeurs indépendants qui essaient d'identifier les événements dans une série chronologique - dans ce cas, je regarde une vidéo de conversation en face à face et je recherche des comportements non verbaux particuliers (par exemple, des hochements de tête) et le codage de l'heure et de la catégorie …

2
Comment puis-je utiliser ces données pour calibrer des marqueurs avec différents niveaux de générosité dans la notation des articles des étudiants?
12 enseignants enseignent à 600 élèves. Les 12 cohortes enseignées par ces enseignants varient en taille de 40 à 90 étudiants, et nous nous attendons à des différences systématiques entre les cohortes, car les étudiants diplômés ont été répartis de manière disproportionnée dans des cohortes particulières, et l'expérience antérieure a …

1
Calcul de la fiabilité inter-évaluateurs en R avec un nombre variable de notes?
Wikipedia suggère qu'une façon d'examiner la fiabilité inter-évaluateurs consiste à utiliser un modèle à effets aléatoires pour calculer la corrélation intraclasse . L'exemple de la corrélation intraclasse parle de regarder σ2ασ2α+ σ2ϵσα2σα2+σϵ2\frac{\sigma_\alpha^2}{\sigma_\alpha^2+\sigma_\epsilon^2} à partir d'un modèle Ouije j= μ + αje+ ϵje jOuijej=μ+αje+ϵjejY_{ij} = \mu + \alpha_i + \epsilon_{ij} "où …


3
Comment effectuer une SVD pour imputer des valeurs manquantes, un exemple concret
J'ai lu les excellents commentaires sur la façon de traiter les valeurs manquantes avant d'appliquer SVD, mais j'aimerais savoir comment cela fonctionne avec un exemple simple: Movie1 Movie2 Movie3 User1 5 4 User2 2 5 5 User3 3 4 User4 1 5 User5 5 1 5 Étant donné la matrice …
8 r  missing-data  data-imputation  svd  sampling  matlab  mcmc  importance-sampling  predictive-models  prediction  algorithms  graphical-model  graph-theory  r  regression  regression-coefficients  r-squared  r  regression  modeling  confounding  residuals  fitting  glmm  zero-inflation  overdispersion  optimization  curve-fitting  regression  time-series  order-statistics  bayesian  prior  uninformative-prior  probability  discrete-data  kolmogorov-smirnov  r  data-visualization  histogram  dimensionality-reduction  classification  clustering  accuracy  semi-supervised  labeling  state-space-models  t-test  biostatistics  paired-comparisons  paired-data  bioinformatics  regression  logistic  multiple-regression  mixed-model  random-effects-model  neural-networks  error-propagation  numerical-integration  time-series  missing-data  data-imputation  probability  self-study  combinatorics  survival  cox-model  statistical-significance  wilcoxon-mann-whitney  hypothesis-testing  distributions  normal-distribution  variance  t-distribution  probability  simulation  random-walk  diffusion  hypothesis-testing  z-test  hypothesis-testing  data-transformation  lognormal  r  regression  agreement-statistics  classification  svm  mixed-model  non-independent  observational-study  goodness-of-fit  residuals  confirmatory-factor  neural-networks  deep-learning 

1
Comment effectuer la fiabilité inter-évaluateurs avec plusieurs évaluateurs, différents évaluateurs par participant et les changements possibles au fil du temps?
Les participants ont été notés deux fois, les 2 notes étant séparées de 3 ans. Pour la plupart des participants, les évaluations ont été faites par différents évaluateurs, mais pour certains (<10%), le même évaluateur a effectué les deux évaluations. Il y avait au total 8 évaluateurs, dont 2 notés …


En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.