Dans l'apprentissage automatique, les méthodes d'ensemble combinent plusieurs algorithmes pour effectuer une prédiction. L'ensachage, la suralimentation et l'empilage en sont quelques exemples.
Les forêts aléatoires fonctionnent en créant un ensemble d'arbres de décision où chaque arbre est créé en utilisant un échantillon bootstrap des données de formation d'origine (échantillon à la fois de variables d'entrée et d'observations). Un processus similaire peut-il être appliqué pour la régression linéaire? Créer k modèles de régression …
Je voudrais créer une forêt aléatoire en utilisant le processus suivant: Construisez un arbre sur un échantillon aléatoire des données et des fonctionnalités en utilisant le gain d'informations pour déterminer les divisions Terminer un nœud feuille s'il dépasse une profondeur prédéfinie OU toute scission entraînerait un nombre de feuilles inférieur …
Il me semble que l'apprentissage d'ensemble donnera toujours de meilleures performances prédictives qu'avec une seule hypothèse d'apprentissage. Alors, pourquoi ne les utilisons-nous pas tout le temps? Je suppose que c'est peut-être à cause de limitations informatiques? (même alors, nous utilisons des prédicteurs faibles, donc je ne sais pas).
Je comprends théoriquement (en quelque sorte) comment ils fonctionneraient, mais je ne sais pas comment faire pour utiliser une méthode d'ensemble (comme le vote, les mélanges pondérés, etc.). Quelles sont les bonnes ressources pour mettre en œuvre des méthodes d'ensemble? Existe-t-il des ressources particulières concernant l'implémentation en Python? ÉDITER: Pour …
Je veux construire un modèle de régression qui est une moyenne de plusieurs modèles OLS, chacun basé sur un sous-ensemble des données complètes. L'idée derrière cela est basée sur cet article . Je crée k plis et je crée k modèles OLS, chacun sur des données sans l'un des plis. …
J'ai besoin d'automatiser les prévisions de séries chronologiques et je ne connais pas à l'avance les caractéristiques de ces séries (saisonnalité, tendance, bruit, etc.). Mon objectif n'est pas d'obtenir le meilleur modèle possible pour chaque série, mais d'éviter les très mauvais modèles. En d'autres termes, obtenir de petites erreurs à …
J'ai essayé de comprendre le renforcement du gradient en lisant divers blogs et sites Web et en essayant de trouver ma réponse en parcourant par exemple le code source XGBoost. Cependant, je n'arrive pas à trouver une explication compréhensible de la façon dont les algorithmes de renforcement de gradient produisent …
Récemment, je me suis intéressé à l'empilement de modèles en tant que forme d'apprentissage d'ensemble. En particulier, j'ai expérimenté un peu avec certains jeux de données de jouets pour les problèmes de régression. J'ai essentiellement implémenté des régresseurs individuels de "niveau 0", stocké les prédictions de sortie de chaque régresseur …
Les méthodes d'ensemble basées sur des arbres telles que la forêt aléatoire et les dérivés subséquents (par exemple, la forêt conditionnelle), prétendent toutes être utiles dans les problèmes dits «petits n , grands p », pour identifier l'importance relative des variables. En effet, cela semble être le cas, mais ma …
Supposons que j'ai un échantillon de fréquences de 4 événements possibles: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 et j'ai les probabilités attendues que mes événements se produisent: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Avec la somme des fréquences …
Je lis le Machine Learning pratique avec Scikit-Learn et TensorFlow: Concepts, outils et techniques pour construire des systèmes intelligents . Ensuite, je ne suis pas en mesure de comprendre la différence entre le vote dur et le vote doux dans le contexte des méthodes basées sur l'ensemble. J'en cite des …
Mon problème est le suivant: j'ai un ensemble de prédicteurs qui produisent chacun une distribution sur un ensemble de classes. Ce que je voudrais faire, c'est d'abord avoir un préalable non informatif sur l'apparence de cette distribution d'étiquettes, puis le mettre à jour avec la prédiction de chaque membre de …
Dans tous les articles sur la forêt aléatoire (de régression) que j'ai lus, quand vient le temps de rassembler les prédictions de tous les arbres, nous prenons la valeur moyenne comme prédiction. Ma question est pourquoi faisons-nous cela? Existe-t-il une justification statistique pour prendre la moyenne? EDIT: Pour clarifier la …
Peut-on généraliser toutes les méthodes d'ensemble en utilisant le vote? Les méthodes de stimulation utilisent-elles également le vote pour amener les apprenants faibles dans le modèle final? Ma compréhension de la technique: Boosting: ajoute continuellement un apprenant faible pour booster les points de données qui n'ont pas été correctement classés. …
Disons que j'ai trois ensembles de données de taille chacun:nnn y1y1y_1 = taille des personnes des États-Unis uniquement y2y2y_2 = hauteurs des hommes du monde entier y3y3y_3 = hauteurs des femmes du monde entier Et je construis un modèle linéaire pour chacun avec des facteurs xixix_i , i=1,...,ki=1,...,ki = 1,..., …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.