Questions marquées «convolution»

La convolution est une opération à valeur fonction sur deux fonctions et : . Souvent utilisé pour obtenir la densité d'une somme de variables aléatoires indépendantes. Cette balise doit également être utilisée pour l'opération inverse de déconvolution. N'utilisez PAS cette balise pour les réseaux de neurones convolutifs. fgf(τ)g(tτ)dτ


6
Importance de la normalisation de la réponse locale dans CNN
J'ai découvert qu'Imagenet et d'autres grands réseaux CNN utilisent des couches de normalisation de réponse locale. Cependant, je ne peux pas trouver autant d'informations à leur sujet. Quelle est leur importance et quand doivent-ils être utilisés? De http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "La couche de normalisation de la réponse locale effectue une sorte …

4
Qu'est-ce que l'invariance de la traduction dans la vision par ordinateur et le réseau de neurones convolutionnels?
Je n'ai pas de formation en vision par ordinateur. Pourtant, lorsque je lis des articles et des articles sur le traitement d'images et les réseaux de neurones convolutionnels, je suis constamment confronté au terme translation invariance, ou translation invariant. Ou j'ai lu beaucoup que l'opération de convolution fournit translation invariance? …

10
Pourquoi la somme de deux variables aléatoires est-elle une convolution?
Pendant longtemps, je n'ai pas compris pourquoi la "somme" de deux variables aléatoires est leur convolution , alors qu'une fonction de densité de mélange somme de et estf(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x)n; la somme arithmétique et non leur convolution. L'expression exacte "la somme de deux variables aléatoires" apparaît dans google 146 000 fois et …


1
Les degrés de liberté peuvent-ils être un nombre non entier?
Lorsque j'utilise GAM, cela me donne un DF résiduel de (dernière ligne du code). Qu'est-ce que ça veut dire? Au-delà de l'exemple GAM, en général, le nombre de degrés de liberté peut-il être un nombre non entier?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
«L'estimation de la densité du noyau» est une convolution de quoi?
J'essaie de mieux comprendre l'estimation de la densité du noyau. En utilisant la définition de Wikipedia: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fh^(x)=1n∑ni=1Kh(x−xi)=1nh∑ni=1K(x−xih)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Prenons pour être une fonction rectangulaire qui donne si est compris entre et et sinon, et (taille de fenêtre) pour …

6
Couches convolutives: rembourrer ou ne pas rembourrer?
L'architecture d'AlexNet utilise des remplissages zéro comme le montre l'image: Cependant, il n'y a aucune explication dans le papier pourquoi ce remplissage est introduit. Le cours Standford CS 231n enseigne que nous utilisons le rembourrage pour préserver la taille spatiale: Je me demande si c'est la seule raison pour laquelle …

2
Une vue dynamique des systèmes du théorème central limite?
(Initialement publié sur MSE.) J'ai vu de nombreuses discussions heuristiques du théorème de la limite centrale classique parler de la distribution normale (ou de n'importe laquelle des distributions stables) comme d'un "attracteur" dans l'espace des densités de probabilité. Par exemple, considérez ces phrases en haut de Wikipedia traitement : Dans …


2
Y a-t-il des raisons mathématiques pour la convolution dans les réseaux de neurones au-delà de l'opportunité?
Dans les réseaux de neurones convolutifs (CNN), la matrice de poids à chaque étape obtient ses lignes et colonnes inversées pour obtenir la matrice du noyau, avant de procéder à la convolution. Ceci est expliqué sur une série de vidéos de Hugo Larochelle ici : Calculer les cartes cachées correspondrait …

2
Distribution de la convolution des variables normales au carré et chi carré?
le problème suivant est apparu récemment lors de l'analyse des données. Si la variable aléatoire X suit une distribution normale et Y suit une distribution χ2nχn2\chi^2_n (avec n ddl), comment Z=X2+Y2Z=X2+Y2Z = X^2 + Y^2 distribué? Jusqu'à présent, je suis venu avec le pdf de Y2Y2Y^2 : ψ2n(x)====∂F(x−−√)∂x(∫x√0tn/2−1⋅e−t/22n/2Γ(n/2)dt)′x12n/2Γ(n/2)⋅(x−−√)n/2−1⋅e−x√/2⋅(x−−√)′x12n/2−1Γ(n/2)⋅xn/4−1⋅e−x√/2ψn2(x)=∂F(x)∂x=(∫0xtn/2−1⋅e−t/22n/2Γ(n/2)dt)x′=12n/2Γ(n/2)⋅(x)n/2−1⋅e−x/2⋅(x)x′=12n/2−1Γ(n/2)⋅xn/4−1⋅e−x/2\begin{eqnarray} \psi^2_n(x) &=& …

3
Comment les réseaux de neurones convolutionnels utilisent-ils exactement la convolution à la place de la multiplication matricielle?
Je lisais le livre de Yoshua Bengio sur l'apprentissage profond et il est dit à la page 224: Les réseaux convolutifs sont simplement des réseaux neuronaux qui utilisent la convolution à la place de la multiplication matricielle générale dans au moins une de leurs couches. cependant, je ne savais pas …


2
Plusieurs filtres dans une couche convolutionnelle n'apprendraient-ils pas le même paramètre pendant l'entraînement?
D'après ce que j'ai appris, nous utilisons plusieurs filtres dans une couche Conv d'un CNN pour apprendre différents détecteurs de fonctionnalités. Mais puisque ces filtres sont appliqués de la même manière (c'est-à-dire glissés et multipliés aux régions de l'entrée), n'apprendraient-ils pas simplement les mêmes paramètres pendant l'entraînement? Par conséquent, l'utilisation …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.