Questions marquées «kernel-smoothing»

Les techniques de lissage du noyau, telles que l'estimation de la densité du noyau (KDE) et la régression du noyau de Nadaraya-Watson, estiment les fonctions par interpolation locale à partir de points de données. A ne pas confondre avec [kernel-trick], pour les noyaux utilisés par exemple dans les SVM.

2
Calculer la courbe ROC pour les données
Donc, j'ai 16 essais dans lesquels j'essaie d'authentifier une personne à partir d'un trait biométrique en utilisant Hamming Distance. Mon seuil est fixé à 3,5. Mes données sont ci-dessous et seul l'essai 1 est un vrai positif: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 




1
Le noyau cosinus peut-il être compris comme un cas de distribution bêta?
Comme l'ont noté Wand et Jones (1995), la plupart des grains standard peuvent être considérés comme K(x;p)={22p+1B(p+1,p+1)}−1(1−x2)p1{|x|&lt;1}K(x;p)={22p+1B(p+1,p+1)}−1(1−x2)p1{|x|&lt;1} K(x;p) = \{ 2^{2p+1} \; \mathrm{B}(p+1,p+1) \}^{-1} \; (1-x^2)^p \;\boldsymbol{1}_{\{|x|<1\}} famille, où B(⋅,⋅)B(⋅,⋅)\mathrm{B}(\cdot,\cdot) est une fonction bêta. Différentes valeurs de ppp conduisent à des noyaux rectangulaires ( p=0p=0p=0 ), Epanechnikov ( p=1p=1p=1 ), …

1
estimation de la densité du noyau du paquet np avec le noyau Epanechnikov
Je travaille avec l'ensemble de données "geyser" du package MASS et compare les estimations de densité du noyau du package np. Mon problème est de comprendre l'estimation de la densité en utilisant la validation croisée des moindres carrés et le noyau Epanechnikov: blep&lt;-npudensbw(~geyser$waiting,bwmethod="cv.ls",ckertype="epanechnikov") plot(npudens(bws=blep)) Pour le noyau gaussien, cela semble …


3
Test post hoc dans une conception mixte 2x3 ANOVA utilisant SPSS?
J'ai deux groupes de 10 participants qui ont été évalués trois fois au cours d'une expérience. Pour tester les différences entre les groupes et entre les trois évaluations, j'ai exécuté une ANOVA de conception mixte 2x3 avec group(contrôle, expérimental), time(premier, deuxième, trois) et group x time. Les deux timeet grouprésulté …
8 anova  mixed-model  spss  post-hoc  bonferroni  time-series  unevenly-spaced-time-series  classification  normal-distribution  discriminant-analysis  probability  normal-distribution  estimation  sampling  classification  svm  terminology  pivot-table  random-generation  self-study  estimation  sampling  estimation  categorical-data  maximum-likelihood  excel  least-squares  instrumental-variables  2sls  total-least-squares  correlation  self-study  variance  unbiased-estimator  bayesian  mixed-model  ancova  statistical-significance  references  p-value  fishers-exact  probability  monte-carlo  particle-filter  logistic  predictive-models  modeling  interaction  survey  hypothesis-testing  multiple-regression  regression  variance  data-transformation  residuals  minitab  r  time-series  forecasting  arima  garch  correlation  estimation  least-squares  bias  pca  predictive-models  genetics  sem  partial-least-squares  nonparametric  ordinal-data  wilcoxon-mann-whitney  bonferroni  wilcoxon-signed-rank  traminer  regression  econometrics  standard-error  robust  misspecification  r  probability  logistic  generalized-linear-model  r-squared  effect-size  gee  ordered-logit  bayesian  classification  svm  kernel-trick  nonlinear  bayesian  pca  dimensionality-reduction  eigenvalues  probability  distributions  mathematical-statistics  estimation  nonparametric  kernel-smoothing  expected-value  filter  mse  time-series  correlation  data-visualization  clustering  estimation  predictive-models  recommender-system  sparse  hypothesis-testing  data-transformation  parametric  probability  summations  correlation  pearson-r  spearman-rho  bayesian  replicability  dimensionality-reduction  discriminant-analysis  outliers  weka 

2
Expliquer le graphique de densité du noyau
J'exécute la simulation sur un modèle linéaire. J'obtiens 1000 résultats et les résultats sont mis dans un graphique de densité. Je comprends que le xaxis est la variable dépendante et que les yaxis représentent la densité du noyau. Yaxis est en nombres décimaux comme de 0 à 0,15. Comment expliquer …

2
Estimation de la densité avec une distribution tronquée?
J'ai quelques données qui sont clairement tronquées à gauche. Je souhaite l'adapter à une estimation de densité qui le manipulera d'une certaine manière au lieu d'essayer de le lisser. Quelles méthodes connues (comme d'habitude en R) peuvent résoudre ce problème? Exemple de code: set.seed(1341) x &lt;- c(runif(30, 0, 0.01), rnorm(100,3)) …

1
Biais pour l'estimateur de densité du noyau (cas périodique)
L'estimateur de densité du noyau est donné par où iid avec une densité inconnue , - bande passante,f^(x,h)=1nh∑i=1nK(x−Xih)f^(x,h)=1nh∑i=1nK(x−Xih)\hat{f}(x,h)=\frac{1}{nh}\sum_{i=1}^{n}K(\frac{x-X_{i}}{h})X1,...XnX1,...XnX_1,...X_nfffhhh KKK - fonction du noyau ( , , ). Le biais peut être calculé en utilisant l'expansion de Taylor: ∫∞−∞K(x)dx=1∫−∞∞K(x)dx=1\int_{-\infty}^{\infty}K(x)dx=1∫∞−∞K(x)xdx=0∫−∞∞K(x)xdx=0\int_{-\infty}^{\infty}K(x)xdx=0∫∞−∞K(x)x2dx&lt;∞∫−∞∞K(x)x2dx&lt;∞\int_{-\infty}^{\infty}K(x)x^2dx<\infty∫∞−∞1hK(x−yh)f(y)dy−f(x)=∫∞−∞K(y)(f(x−hy)−f(x))dy∫−∞∞1hK(x−yh)f(y)dy−f(x)=∫−∞∞K(y)(f(x−hy)−f(x))dy\int_{-\infty}^{\infty}\frac{1}{h}K(\frac{x-y}{h})f(y)dy-f(x)=\int_{-\infty}^{\infty}K(y)\left(f(x-hy)-f(x)\right)dy =∫∞−∞K(y)(f′(x)hy+12f′′(x)(hy)2+o(h2))dy=12f′′(x)h2+o(h2)=∫−∞∞K(y)(f′(x)hy+12f″(x)(hy)2+o(h2))dy=12f″(x)h2+o(h2)=\int_{-\infty}^{\infty}K(y)\left(f'(x)hy+\frac{1}{2}f''(x)(hy)^{2}+o(h^{2})\right)dy=\frac{1}{2}f''(x)h^{2}+o(h^{2}) Comment gérer le noyau périodique et fff ( ∫10K(x)dx=1∫01K(x)dx=1\int_{0}^{1}K(x)dx=1 , ∫10K(x)xdx=0∫01K(x)xdx=0\int_{0}^{1}K(x)xdx=0 …
En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.