Questions marquées «kernel-smoothing»

Les techniques de lissage du noyau, telles que l'estimation de la densité du noyau (KDE) et la régression du noyau de Nadaraya-Watson, estiment les fonctions par interpolation locale à partir de points de données. A ne pas confondre avec [kernel-trick], pour les noyaux utilisés par exemple dans les SVM.


1
Quel est le nom de la méthode d'estimation de la densité où toutes les paires possibles sont utilisées pour créer une distribution de mélange normale?
Je viens de penser à une façon soignée (pas nécessairement bonne) de créer des estimations de densité unidimensionnelles et ma question est: Cette méthode d'estimation de la densité a-t-elle un nom? Sinon, s'agit-il d'un cas particulier d'une autre méthode dans la littérature? Voici la méthode: Nous avons un vecteur que …

4
Estimation de la densité du noyau intégrant des incertitudes
Lors de la visualisation de données unidimensionnelles, il est courant d'utiliser la technique d'estimation de la densité du noyau pour tenir compte des largeurs de bac mal choisies. Lorsque mon ensemble de données unidimensionnel présente des incertitudes de mesure, existe-t-il un moyen standard d'incorporer ces informations? Par exemple (et pardonnez-moi …

1
Ratio de probabilités vs ratio de PDF
J'utilise Bayes pour résoudre un problème de clustering. Après avoir fait quelques calculs, je me retrouve avec la nécessité d'obtenir le rapport de deux probabilités: P(A)/P(B)P(A)/P(B)P(A)/P(B) pouvoir obtenir . Ces probabilités sont obtenues par intégration de deux KDE multivariés 2D différents comme expliqué dans cette réponse :P(H|D)P(H|D)P(H|D) P(A)=∬x,y:f^(x,y)<f^(ra,sa)f^(x,y)dxdyP(A)=∬x,y:f^(x,y)<f^(ra,sa)f^(x,y)dxdyP(A) = \iint_{x, …

2
Intégration de l'estimateur de densité de noyau en 2D
Je viens de cette question au cas où quelqu'un voudrait suivre la piste. Fondamentalement, j'ai un ensemble de données composé de objets où chaque objet a un nombre donné de valeurs mesurées qui lui sont attachées (deux dans ce cas):NΩΩ\OmegaNNN Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]\Omega = o_1[x_1, y_1], o_2[x_2, y_2], ..., o_N[x_N, y_N] J'ai …





2
Estimation de la densité du noyau sur les distributions asymétriques
Soit observations tirées d'une distribution de probabilité inconnue (mais certainement asymétrique).{ x1, … , XN}{X1,…,XN}\{x_1,\ldots,x_N\} Je voudrais trouver la distribution de probabilité en utilisant l'approche KDE: Cependant, j'ai essayé d'utiliser un noyau gaussien, mais il a mal fonctionné, car il est symétrique. Ainsi, j'ai vu que certains travaux sur les …



1
Pourquoi les caractéristiques aléatoires de Fourier sont-elles non négatives?
Les fonctionnalités de Fourier aléatoires fournissent des approximations des fonctions du noyau. Ils sont utilisés pour diverses méthodes du noyau, comme les SVM et les processus gaussiens. Aujourd'hui, j'ai essayé d'utiliser l' implémentation TensorFlow et j'ai obtenu des valeurs négatives pour la moitié de mes fonctionnalités. Si je comprends bien, …


2
Avantage de l'estimation de la densité du noyau par rapport à l'estimation paramétrique
Y a-t-il une raison particulière pour laquelle vous choisirez l'estimation de la densité du noyau plutôt que l'estimation paramétrique? J'apprenais à adapter la distribution à mes données. Cette question m'est venue. La taille de mes données est relativement grande avec 7500 points de données. Réclamations automobiles. Mon objectif est de …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.