Une option intéressante serait d'explorer la réduction de la dimensionnalité basée sur les neurones. Le type de réseau le plus couramment utilisé pour la réduction de la dimensionnalité, l'autoencodeur, peut être formé au détriment de , où i représente les itérations de formation (est un hyper-paramètre indépendant des données de formation). Par conséquent, la complexité de la formation se simplifie en O ( n ) .O (i⋅n)jeO ( n )
Vous pouvez commencer par jeter un œil aux travaux du séminaire de 2006 de Hinton et Salakhutdinov [1]. Depuis lors, les choses ont beaucoup évolué. Maintenant, la plupart de l'attention est atteinte par les encodeurs automatiques variationnels [2], mais l'idée de base (un réseau qui reconstruit l'entrée à sa couche de sortie avec une couche de goulot d'étranglement entre les deux) reste la même. Notez que, contrairement à PCA et RP, les encodeurs automatiques effectuent une réduction de dimensionnalité non linéaire. En outre, contrairement au t-SNE, les auto-encodeurs peuvent transformer des échantillons invisibles sans avoir à recycler l'ensemble du modèle.
Sur le plan pratique, je vous recommande de jeter un coup d'œil à ce post , qui donne des détails sur la façon d'implémenter différents types d'autoencodeurs avec la merveilleuse bibliothèque Keras.
[1] Hinton, GE et Salakhutdinov, RR (2006). Réduire la dimensionnalité des données avec les réseaux de neurones. science, 313 (5786), 504-507.
[2] Kingma, DP et Welling, M. (2013). Bayes variationnels à encodage automatique. arXiv preprint arXiv: 1312.6114.