La séparation se produit lorsque certaines classes d'un résultat catégoriel peuvent être parfaitement distinguées par une combinaison linéaire d'autres variables.
Si vous avez une variable qui sépare parfaitement les zéros de la variable cible, R affichera le message d’alerte suivant: "séparation parfaite ou quasi parfaite": Warning message: glm.fit: fitted probabilities numerically 0 or 1 occurred Nous obtenons toujours le modèle mais les estimations des coefficients sont gonflées. Comment gérez-vous cela …
Je suis en train de prédire un résultat binaire en utilisant 50 variables continues explicatives (la gamme de la plupart des variables est à ∞ ). Mon ensemble de données contient près de 24 000 lignes. Quand je cours en R, je reçois:−∞−∞-\infty∞∞\inftyglm Warning messages: 1: glm.fit: algorithm did not …
J'ai quelques données sur les vols des compagnies aériennes (dans une trame de données appelée flights) et j'aimerais voir si le temps de vol a un effet sur la probabilité d'une arrivée considérablement retardée (c'est-à-dire 10 minutes ou plus). Je pensais utiliser une régression logistique, avec le temps de vol …
Pourquoi la régression logistique devient-elle instable lorsque les classes sont bien séparées? Qu'est-ce qu'une classe bien séparée? J'apprécierais vraiment si quelqu'un peut expliquer avec un exemple.
Étant donné points de données, chacun avec caractéristiques, sont étiquetés comme , les autres sont étiquetés comme . Chaque entité prend une valeur de au hasard (distribution uniforme). Quelle est la probabilité qu'il existe un hyperplan pouvant diviser les deux classes?d n / 2 0 n / 2 1 [ …
Dans un petit ensemble de données ( ) avec lequel je travaille, plusieurs variables me donnent une prédiction / séparation parfaite . J'utilise donc la régression logistique de Firth pour traiter le problème.n∼100n∼100n\sim100 Si je sélectionne le meilleur modèle par AIC ou BIC , dois-je inclure le terme de pénalité …
Nous avons beaucoup de bonnes discussions sur la séparation parfaite dans la régression logistique. Telles que, la régression logistique dans R a conduit à une séparation parfaite (phénomène de Hauck-Donner). Maintenant quoi? et le modèle de régression logistique ne converge pas . Personnellement, je pense toujours que ce n'est pas …
Dans mon projet, je souhaite créer un modèle de régression logistique pour prédire la classification binaire (1 ou 0). J'ai 15 variables, dont 2 sont catégoriques, tandis que les autres sont un mélange de variables continues et discrètes. Afin d'adapter un modèle de régression logistique, il m'a été conseillé de …
J'ai ajusté le modèle à l'aide caret, mais j'ai ensuite réexécuté le modèle à l'aide du gbmpackage. Je crois comprendre que le caretpackage utilise gbmet que la sortie doit être la même. Cependant, un simple test rapide utilisant data(iris)montre une différence dans le modèle d'environ 5% en utilisant RMSE et …
J'essaie de comprendre la régression logistique de Firth (méthode de gestion de la séparation parfaite / complète ou quasi-complète dans la régression logistique) afin de pouvoir l'expliquer aux autres en termes simplifiés. Quelqu'un a-t-il une explication factice de la modification que l'estimation de Firth apporte au MLE? J'ai lu, du …
Je lance un glmm avec une variable de réponse binomiale et un prédicteur catégorique. L'effet aléatoire est donné par le plan imbriqué utilisé pour la collecte de données. Les données ressemblent à ceci: m.gen1$treatment [1] sucrose control protein control no_injection ..... Levels: no_injection control sucrose protein m.gen1$emergence [1] 1 0 …
Le mgcvpackage pour Ra deux fonctions pour ajuster les interactions des produits tensoriels: te()et ti(). Je comprends la division de base du travail entre les deux (ajustement d'une interaction non linéaire vs décomposition de cette interaction en effets principaux et interaction). Ce que je ne comprends pas, c'est pourquoi te(x1, …
J'obtiens d'énormes coefficients lors de la régression logistique, voir les coefficients avec krajULKV: > summary(m5) Call: glm(formula = cbind(ml, ad) ~ rok + obdobi + kraj + resid_usili2 + rok:obdobi + rok:kraj + obdobi:kraj + kraj:resid_usili2 + rok:obdobi:kraj, family = "quasibinomial") Deviance Residuals: Min 1Q Median 3Q Max -2.7796 -1.0958 …
En référence à l'image ci-dessus, un cercle peut clairement séparer les deux classes (image de gauche). Pourquoi alors tant de mal à le mapper à une fonction pour la rendre linéairement séparable (image de droite)? Quelqu'un peut-il expliquer? Je ne pouvais vraiment rien trouver sur le web ou des conférences …
Nous pouvons simuler une régression linéaire sans caractère aléatoire, ce qui signifie que nous faisons au lieu de . Ensuite, si nous ajustons un modèle linéaire, les coefficients seront identiques à la "vérité fondamentale". Voici un exemple.y=Xβy=Xβy=X\betay=Xβ+ϵy=Xβ+ϵy=X\beta+\epsilon set.seed(0) n <- 1e5 p <- 3 X <- matrix(rnorm(n*p), ncol=p) beta <- …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.