J'ai quelques données en [0,1] que je voudrais analyser avec une régression bêta. Bien sûr, quelque chose doit être fait pour s'adapter aux valeurs 0,1. Je n'aime pas modifier les données pour les adapter à un modèle. Je ne pense pas non plus que l'inflation zéro et 1 soit une bonne idée car je pense que dans ce cas, il faut considérer les 0 comme de très petites valeurs positives (mais je ne veux pas dire exactement quelle valeur est appropriée. Un choix raisonnable Je pense que ce serait de choisir de petites valeurs comme .001 et .999 et d'ajuster le modèle en utilisant la dist cumulative pour le bêta. Donc pour les observations y_i la log log vraisemblance LL_iwould être
if y_i < .001 LL+=log(cumd_beta(.001))
else if y_i>.999 LL+=log(1.0-cum_beta(.999))
else LL+=log(beta_density(y_i))
Ce que j'aime dans ce modèle, c'est que si le modèle de régression bêta est valide, ce modèle l'est également, mais il supprime un peu la sensibilité aux valeurs extrêmes. Cependant, cela semble être une approche tellement naturelle que je me demande pourquoi je ne trouve aucune référence évidente dans la littérature. Donc ma question est au lieu de modifier les données, pourquoi ne pas modifier le modèle. La modification des données biaise les résultats (sur la base de l'hypothèse que le modèle d'origine est valide), tandis que la modification du modèle en regroupant les valeurs extrêmes ne biaise pas les résultats.
Peut-être qu'il y a un problème que je néglige?