Je pense que votre premier problème est que n'est plus une distribution normale, et la façon dont les données doivent être transformées pour être homoscédastiques dépend exactement de ce qu'est σ ( x , t ) . Par exemple, si σ ( x , t ) = a x + b t , l'erreur est de type proportionnel et le logarithme des données y doit être pris avant la régression, ou la régression ajustée des moindres carrés ordinaires (OLS) à pondérée moindres carrés avec un 1N( 0 , σ( x , t ) )σ( x , t )σ( x , t ) = a x + b t poids (qui change la régression en erreur de type proportionnelle minimisée). De même, si σ ( x , t ) = e a x + b t , il faudrait prendre le logarithme du logarithme et le régresser.1 / an2σ( x , t ) = ea x + b t
Je pense que la raison pour laquelle la prédiction des types d'erreur est mal couverte est que l'on fait d'abord une ancienne régression (grognement, moindres carrés généralement ordinaires, OLS). Et à partir du tracé résiduel, c'est-à-dire , on observe la forme résiduelle, et on trace l'histogramme de fréquence des données, et on regarde cela. Ensuite, si les résidus sont un faisceau en éventail s'ouvrant vers la droite, on essaie de modéliser les données proportionnellement, si l'histogramme ressemble à une décroissance exponentielle, on pourrait essayer la réciprocité, 1 / y , et ainsi de suite pour les racines carrées, la quadrature, l'exponentiation , en prenant exponentielle-y.m o de l - y1 / an
Maintenant, ce n'est que la petite histoire. La version plus longue comprend beaucoup plus de types de régression, y compris la régression médiane de Theil, la régression bivariée de Deming et la régression pour la minimisation des erreurs de problèmes mal posés qui n'ont pas de relation d'ajustement de courbe particulière avec l'erreur propagée minimisée. Ce dernier est un whopper, mais, voyez cecipar exemple. Pour que cela fasse une grande différence ce que l'on cherche à obtenir. En règle générale, si l'on veut établir une relation entre les variables, l'OLS de routine n'est pas la méthode de choix, et la régression Theil serait une amélioration rapide et sale à ce sujet. OLS ne minimise que dans la direction y, donc la pente est trop peu profonde et l'interception trop grande pour établir la relation sous-jacente entre les variables. Autrement dit, OLS donne une estimation de l'erreur la plus faible de ay étant donné un x, il ne donne pas d'estimation de la façon dont x change avec y. Lorsque les valeurs r sont très élevées (0,99999+), peu importe la régression utilisée et OLS en y est approximativement le même que OLS en x, mais, lorsque les valeurs r sont faibles, OLS en y est très différent de OLS en x.
En résumé, tout dépend en grande partie du raisonnement qui a motivé l'analyse de régression en premier lieu. Cela dicte les méthodes numériques nécessaires. Une fois ce choix effectué, les résidus ont alors une structure liée à l'objectif de la régression et doivent être analysés dans ce contexte plus large.