Je n'ai trouvé aucune documentation sur l'application des forêts aléatoires au MNIST, au CIFAR, au STL-10, etc., alors j'ai pensé les essayer moi-même avec le MNIST invariant par permutation . Dans R , j'ai essayé: randomForest(train$x, factor(train$y), test$x, factor(test$y), ntree=500) Cela a fonctionné pendant 2 heures et a obtenu une …
Je me demande si c'est une bonne idée de supprimer ces variables avec une valeur d'importance de variable négative ("% IncMSE") dans un contexte de régression. Et si cela me donne une meilleure prédiction? Qu'est-ce que tu penses?
Ceci est juste un exemple que j'ai rencontré plusieurs fois, donc je n'ai pas d'échantillons de données. Exécution d'un modèle de régression linéaire dans R: a.lm = lm(Y ~ x1 + x2) x1est une variable continue. x2est catégorique et a trois valeurs, par exemple "Low", "Medium" et "High". Cependant, la …
Disons que nous avons un échantillon de deux populations: Aet B. Supposons que ces populations sont constituées d'individus et nous choisissons de décrire les individus en termes de caractéristiques. Certaines de ces caractéristiques sont catégoriques (par exemple, conduisent-elles au travail?) Et certaines sont numériques (par exemple, leur hauteur). Appelons ces …
J'ai lu les classificateurs algébriques: une approche générique pour la validation croisée rapide, la formation en ligne et la formation parallèle et j'ai été étonné par la performance des algorithmes dérivés. Cependant, il semble qu'au-delà de Naive Bayes (et GBM) il n'y a pas beaucoup d'algorithmes adaptés au framework. Y …
Comment attribuer plus de poids à des observations plus récentes dans R? Je suppose que c'est une question ou un désir fréquemment posé, mais j'ai du mal à trouver exactement comment mettre en œuvre cela. J'ai essayé de chercher beaucoup pour cela, mais je ne peux pas trouver un bon …
Dans Random Forest, chaque arbre est cultivé en parallèle sur un échantillon boostrap unique des données. Étant donné que chaque échantillon boostrap devrait contenir environ 63% d'observations uniques, cela laisse environ 37% d'observations, qui peuvent être utilisées pour tester l'arbre. Maintenant, il semble que dans le boosting de gradient stochastique, …
1) Comment puis-je changer le seuil de classification (je pense que c'est 0,5 par défaut) dans RandomForest dans sklearn? 2) Comment puis-je sous-échantillonner dans Sklearn? 3) J'ai le résultat suivant du classificateur RandomForest: [[1635 1297] [520 3624]] precision recall f1-score support class 0 0.76 0.56 0.64 2932 class 1 0.74 …
J'utilise le régresseur RandomForest sur mes données et j'ai pu voir que le score oob a été obtenu à 0,83. Je ne sais pas comment ça s'est passé comme ça. Je veux dire que mes cibles sont des valeurs élevées de l'ordre de 10 ^ 7. Donc, si c'est MSE, …
J'ai un randomForestmodèle de classification fine que j'aimerais utiliser dans une application qui prédit la classe d'un nouveau cas. Le nouveau cas a inévitablement des valeurs manquantes. Predict ne fonctionnera pas comme tel pour les AN. Comment dois-je faire alors? data(iris) # create first the new case with missing values …
Supposons que j'ai un échantillon de fréquences de 4 événements possibles: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 et j'ai les probabilités attendues que mes événements se produisent: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Avec la somme des fréquences …
Les greffes suivantes sont extraites de cet article . Je suis novice dans le bootstrap et j'essaie d'implémenter le bootstrap paramétrique, semi-paramétrique et non paramétrique pour le modèle mixte linéaire avec le R bootpackage. Code R Voici mon Rcode: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + …
J'utilise le package randomForest dans R (R version 2.13.1, randomForest version 4.6-2) pour la régression et j'ai remarqué un biais significatif dans mes résultats: l'erreur de prédiction dépend de la valeur de la variable de réponse. Les valeurs élevées sont sous-prédites et les valeurs faibles sont sur-prédites. Au début, je …
Une question récente sur les alternatives à la régression logistique dans R a donné une variété de réponses, y compris randomForest, gbm, rpart, bayesglm et des modèles additifs généralisés. Quelles sont les différences pratiques et d'interprétation entre ces méthodes et la régression logistique? Quelles hypothèses font-ils (ou ne font-elles pas) …
Ma question concerne la classification binaire, disons séparer les bons clients des mauvais clients, mais pas la régression ou la classification non binaire. Dans ce contexte, une forêt aléatoire est un ensemble d'arbres de classification. Pour chaque observation, chaque arbre vote «oui» ou «non», et le vote moyen de tous …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.