Différence: Replicator Neural Network vs Autoencoder


8

J'étudie actuellement des articles sur la détection des valeurs aberrantes à l'aide de RNN (Replicator Neural Networks) et je me demande quelle est la différence particulière avec les autoencodeurs? Les RNN semblent être considérés par beaucoup comme le Saint Graal de la détection des valeurs aberrantes / des anomalies, mais l'idée semble être assez ancienne, car les encodeurs automatiques sont là depuis longtemps.


Salut. J'étais sur le point de le supprimer, comme je l'ai lu ici: meta.stackexchange.com/a/254090 que datascience est le bon forum pour cette question. Désolé pour le retard.
Nex

D'ACCORD. Je ne l'ai remarqué que parce que je n'avais jamais entendu parler des NN du réplicateur et recherché - la question de la validation croisée s'est posée. Je conviens que la science des données est un meilleur endroit pour cette question.
Neil Slater

Réponses:


6

Les deux types de réseaux essaient de reconstruire l'entrée après l'avoir alimentée via une sorte de mécanisme de compression / décompression. Pour la détection des valeurs aberrantes, l'erreur de reconstruction entre l'entrée et la sortie est mesurée - les valeurs aberrantes devraient avoir une erreur de reconstruction plus élevée.

La principale différence semble être la manière dont l'entrée est compressée:

Les auto-encodeurs simples pressent l'entrée à travers une couche cachée qui a moins de neurones que les couches d'entrée / sortie .. de cette façon, le réseau doit apprendre une représentation compressée des données.

Les réseaux de neurones du réplicateur pressent les données à travers une couche cachée qui utilise une fonction d'activation semblable à un escalier. La fonction d'activation en escalier oblige le réseau à compresser les données en les affectant à un certain nombre de clusters (en fonction du nombre de neurones et du nombre d'étapes).

fonction d'activation en escalier

De Replicator Neural Networks pour la modélisation des valeurs aberrantes dans la reconnaissance vocale segmentaire :

Les RNN ont été initialement introduits dans le domaine de la compression de données [5]. Hawkins et al. l'a proposé pour la modélisation des valeurs aberrantes [4]. Dans les deux articles, une structure à 5 couches est recommandée, avec une couche de sortie linéaire et une fonction d'activation spéciale en forme d'escalier dans la couche intermédiaire (voir Fig. 2). Le rôle de cette fonction d'activation est de quantifier le vecteur des sorties de la couche cachée intermédiaire en points de grille et ainsi organiser les points de données en un certain nombre de grappes.

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.