Je suis un étudiant en master CS en data mining. Mon superviseur m'a dit une fois qu'avant d'exécuter un classificateur ou de faire quoi que ce soit avec un ensemble de données, je dois bien comprendre les données et m'assurer que les données sont propres et correctes. Mes questions: Quelles …
J'ai lu beaucoup de blogs \ article sur la façon dont différents types d'industries utilisent Big Data Analytic. Mais la plupart de ces articles ne mentionnent pas Quel genre de données ces entreprises ont utilisé. Quelle était la taille des données Quels types de technologies d'outils ont-ils utilisés pour traiter …
Si la suppression de certains neurones donne un modèle plus performant, pourquoi ne pas utiliser un réseau neuronal plus simple avec moins de couches et moins de neurones en premier lieu? Pourquoi construire un modèle plus grand et plus compliqué au début et en supprimer des parties plus tard?
Je suis récemment tombé sur l'intégration de graphiques tels que DeepWalk et LINE. Cependant, je n'ai toujours pas une idée claire de ce que l'on entend par intégration de graphiques et quand l'utiliser (applications)? Toutes les suggestions sont les bienvenues!
Je ne suis en aucun cas un expert en encodeurs automatiques ou en réseaux de neurones, alors pardonnez-moi si c'est une question stupide. À des fins de réduction de dimension ou de visualisation de clusters dans des données de haute dimension, nous pouvons utiliser un autoencodeur pour créer une représentation …
Si l'on regarde 90 à 99% des articles publiés à l'aide d'un CNN (ConvNet). La grande majorité d'entre eux utilise une taille de filtre de nombres impairs : {1, 3, 5, 7} pour les plus utilisés. Cette situation peut entraîner un problème: avec ces tailles de filtre, généralement l'opération de …
J'ai lu ceci: Pour former notre réseau de neurones, nous initialiserons chaque paramètre W (l) ijWij (l) et chaque b (l) ibi (l) à une petite valeur aléatoire proche de zéro (disons selon un Normal (0, ϵ2) Normal (0 , ϵ2) distribution pour certains petits ϵϵ, disons 0,01) de Stanford …
Dans les arbres de décision, nous pouvons comprendre la sortie de l'arborescence et nous pouvons également visualiser la façon dont l'arbre de décision prend des décisions. Les arbres de décision sont donc explicables (leur sortie peut être expliquée facilement.) Avons-nous une explicabilité dans les réseaux neuronaux comme avec les arbres …
J'ai lu quelques articles sur l'initialisation du noyau et de nombreux articles mentionnent qu'ils utilisent la régularisation L2 du noyau (souvent avec ).λ=0.0001λ=0.0001\lambda = 0.0001 Quelqu'un fait-il autre chose que d'initialiser le biais avec un zéro constant et de ne pas le régulariser? Documents d'initialisation du noyau Mishkin et Matas: …
J'ai une bonne compréhension générale du rôle et du mécanisme des couches convolutives dans le Deep Learning pour le traitement d'image en cas d'implémentations 2D ou 3D - elles essaient "simplement" de capturer des motifs 2D dans les images (sur 3 canaux en cas de 3D). Mais récemment, je suis …
J'essaie de comprendre les dimensions de chaque variable dans un RNN dans la couche oublier, cependant, je ne sais pas si je suis sur la bonne voie. L'image et l'équation suivantes proviennent de proviennent du blog Colah "Comprendre les réseaux LSTM" : où: est une entrée de taille m ∗ …
Lorsque nous effectuons une validation croisée k, devons-nous simplement utiliser le classificateur qui a la plus haute précision de test? Quelle est généralement la meilleure approche pour obtenir un classifieur à partir d'une validation croisée?
Je lis une présentation et il recommande de ne pas utiliser l'encodage de sortie, mais il est correct avec un encodage à chaud. Je pensais qu'ils étaient tous les deux identiques. Quelqu'un peut-il décrire les différences entre eux?
Je cherche à trouver un poids pré-formé de modèles déjà formés comme les données de Google Actualités, etc. J'ai eu du mal à former un nouveau modèle avec suffisamment de données (10 Go, etc.) pour moi. Donc, je veux profiter de l'apprentissage par transfert dans lequel je serais en mesure …
Peu de choses dans la vie me font plaisir comme gratter des données structurées et non structurées d'Internet et les utiliser dans mes modèles. Par exemple, le Data Science Toolkit (ou RDSTKpour les programmeurs R) me permet d'extraire de nombreuses bonnes données géolocalisées en utilisant des adresses IP ou des …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.