Science des données

Questions-réponses pour les professionnels de la science des données, les spécialistes en apprentissage automatique et les personnes intéressées



3
Ensembles de données classiques d'analyse de réseau
Il existe plusieurs jeux de données classiques pour les tâches de classification / régression d'apprentissage automatique. Les plus populaires sont: Ensemble de données sur la fleur d'iris ; Ensemble de données Titanic ; Voitures Motor Trend ; etc. Mais quelqu'un connaît-il des ensembles de données similaires pour l'analyse des réseaux …
10 dataset  graphs 


2
Débogage des réseaux de neurones
J'ai construit un réseau neuronal artificiel en python en utilisant la fonction d'optimisation scipy.optimize.minimize (gradient conjugué). J'ai implémenté la vérification du gradient, j'ai tout vérifié, etc., et je suis presque certain que cela fonctionne correctement. Je l'ai exécuté plusieurs fois et il atteint `` L'optimisation s'est terminée avec succès '', …

4
Comment déboguer l'analyse des données?
J'ai rencontré le problème suivant, que je reconnais est plutôt typique. J'ai quelques grandes données, disons, quelques millions de lignes. J'exécute une analyse non triviale dessus, par exemple une requête SQL composée de plusieurs sous-requêtes. J'obtiens un résultat, déclarant, par exemple, que la propriété X augmente avec le temps. Maintenant, …

1
Regroupement des données client stockées dans ElasticSearch
J'ai un tas de profils clients stockés dans un cluster elasticsearch . Ces profils sont désormais utilisés pour la création de groupes cibles pour nos abonnements par e-mail. Les groupes cibles sont désormais formés manuellement à l'aide des capacités de recherche à facettes d'elasticsearch (comme obtenir tous les hommes de …

2
Quelle est la méthode la plus efficace pour l'optimisation hyperparamétrique dans scikit-learn?
Un aperçu du processus d'optimisation des hyperparamètres dans scikit-learn est ici . Une recherche exhaustive dans la grille trouvera l'ensemble optimal d'hyperparamètres pour un modèle. L'inconvénient est que la recherche exhaustive de la grille est lente. La recherche aléatoire est plus rapide que la recherche dans la grille mais présente …

2
Max_depth dans scikit est-il l'équivalent de l'élagage dans les arbres de décision?
J'analysais le classificateur créé à l'aide d'un arbre de décision. Il y a un paramètre de réglage appelé max_depth dans l'arbre de décision de scikit. Est-ce l'équivalent de l'élagage d'un arbre de décision? Sinon, comment pourrais-je tailler un arbre de décision à l'aide de scikit? dt_ap = tree.DecisionTreeClassifier(random_state=1, max_depth=13) boosted_dt …


2
La normalisation par lots a-t-elle un sens pour une fonction d'activation ReLU?
La normalisation par lots est décrite dans cet article comme une normalisation de l'entrée d'une fonction d'activation avec des variables d'échelle et de décalageγγ\gamma et ββ\beta. Cet article décrit principalement l'utilisation de la fonction d'activation sigmoïde, ce qui est logique. Cependant, il me semble que l'introduction d'une entrée de la …

3
Relation entre la convolution en mathématiques et CNN
J'ai lu l' explication de la convolution et je la comprends dans une certaine mesure. Quelqu'un peut-il m'aider à comprendre comment cette opération est liée à la convolution dans les réseaux neuronaux convolutionnels? Le filtre est-il une fonction gqui applique du poids?
10 machine-learning  neural-network  deep-learning  cnn  convolution  machine-learning  ensemble-modeling  machine-learning  classification  data-mining  clustering  machine-learning  feature-selection  convnet  pandas  graphs  ipython  machine-learning  apache-spark  multiclass-classification  naive-bayes-classifier  multilabel-classification  machine-learning  data-mining  dataset  data-cleaning  data  machine-learning  data-mining  statistics  correlation  machine-learning  data-mining  dataset  data-cleaning  data  beginner  career  python  r  visualization  machine-learning  data-mining  nlp  stanford-nlp  dataset  linear-regression  time-series  correlation  anomaly-detection  ensemble-modeling  data-mining  machine-learning  python  data-mining  recommender-system  machine-learning  cross-validation  model-selection  scoring  prediction  sequential-pattern-mining  categorical-data  python  tensorflow  image-recognition  statistics  machine-learning  data-mining  predictive-modeling  data-cleaning  preprocessing  classification  deep-learning  tensorflow  machine-learning  algorithms  data  keras  categorical-data  reference-request  loss-function  classification  logistic-regression  apache-spark  prediction  naive-bayes-classifier  beginner  nlp  word2vec  vector-space-models  scikit-learn  decision-trees  data  programming 



3
Consommation de mémoire CNN
J'aimerais pouvoir estimer si un modèle proposé est suffisamment petit pour être formé sur un GPU avec une quantité de mémoire donnée Si j'ai une architecture CNN simple comme celle-ci: Input: 50x50x3 C1: 32 noyaux 3x3, avec rembourrage (je suppose qu'ils sont en réalité 3x3x3 étant donné la profondeur d'entrée?) …

En utilisant notre site, vous reconnaissez avoir lu et compris notre politique liée aux cookies et notre politique de confidentialité.
Licensed under cc by-sa 3.0 with attribution required.