Dans d'autres contextes, orthogonal signifie "à angle droit" ou "perpendiculaire".
Que signifie orthogonal dans un contexte statistique?
Merci pour toute clarification.
Dans d'autres contextes, orthogonal signifie "à angle droit" ou "perpendiculaire".
Que signifie orthogonal dans un contexte statistique?
Merci pour toute clarification.
Réponses:
Cela signifie qu'elles [les variables aléatoires X, Y] sont «indépendantes» les unes des autres. Les variables aléatoires indépendantes sont souvent considérées comme étant à «angles droits» l'une de l'autre, où par «angles droits», on entend que le produit intérieur des deux est 0 (une condition équivalente de l'algèbre linéaire).
Par exemple, sur le plan XY, les axes X et Y sont dits orthogonaux, car si la valeur x d’un point donné change, disons en passant de (2,3) à (5,3), sa valeur y reste la même (3), et vice versa. Par conséquent, les deux variables sont «indépendantes».
Voir aussi les entrées de Wikipedia pour Independence and Orthogonality
Je ne peux pas faire de commentaire parce que je n'ai pas assez de points, alors je suis obligé de dire ce que je pense comme réponse, pardonnez-moi s'il vous plaît. D'après le peu que je sais, je ne suis pas d'accord avec la réponse choisie par @crazyjoe car l'orthogonalité est définie comme
Alors:
Si avec pdf symétrique, ils sont dépendants mais orthogonaux.
Si mais que la valeur pdf est zéro pour les valeurs négatives, elles sont dépendantes mais non orthogonales.
Par conséquent, l'orthogonalité n'implique pas l'indépendance.
Si X et Y sont indépendants, ils sont orthogonaux. Mais l'inverse n'est pas vrai comme le souligne l'exemple astucieux de user497804. Pour les définitions exactes, voir
Orthogonal: les variables aléatoires complexes et C 2 sont appelées orthogonales si elles satisfont à C o v ( C 1 , C 2 ) = 0
(Page 376, Probabilités et processus aléatoires de Geoffrey Grimmett et David Stirzaker)
Indépendant: Les variables aléatoires et Y sont indépendantes si et seulement si F ( x , y ) = F X ( x ) F Y ( y ) pour tout x , y ∈ R
ce qui, pour les variables aléatoires continues, équivaut à exiger que
(Page 99, Probabilités et processus aléatoires de Geoffrey Grimmett et David Stirzaker)
@Mien a déjà fourni une réponse et, comme l'a souligné @ whuber, les moyens orthogonaux ne sont pas corrélés. Cependant, je souhaite vraiment que les gens fournissent des références. Les liens suivants pourraient vous être utiles car ils expliquent le concept de corrélation d’un point de vue géométrique.
Un site Web du NIST (voir référence ci-dessous) définit orthogonal comme suit: "Un modèle expérimental est orthogonal si les effets d’un facteur quelconque s’équilibrent (somme à zéro) en fonction des effets des autres facteurs."
En statistique, je comprends orthogonal: "non cofondé" ou "non aliasé". Ceci est important lors de la conception et de l'analyse de votre expérience si vous voulez être sûr de pouvoir identifier clairement différents facteurs / traitements. Si votre expérience n'est pas orthogonale, cela signifie que vous ne pourrez pas séparer complètement les effets de différents traitements. Ainsi, vous devrez effectuer une expérience de suivi pour décontaminer l’effet. Cela s'appellerait une conception augmentée ou comparative.
L’indépendance semble être un choix de mots médiocre, car elle est utilisée dans de nombreux autres aspects de la conception et de l’analyse.
NIST Ref http://www.itl.nist.gov/div898/handbook/pri/section7/pri7.htm
Il est fort probable qu'ils veulent dire «sans lien» s'ils disent «orthogonal»; si deux facteurs sont orthogonaux (par exemple en analyse factorielle), ils ne sont pas liés, leur corrélation est égale à zéro.
Selon http://terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf , l'indépendance linéaire est une condition nécessaire à l'orthogonalité ou à l'absence de corrélation. Mais il y a des distinctions plus fines, en particulier, l'orthogonalité n'est pas une décorrélation.
En économétrie, l'hypothèse d'orthogonalité signifie que la valeur attendue de la somme de toutes les erreurs est 0. Toutes les variables d'un régresseur sont orthogonales à leurs termes d'erreur actuels.
En termes plus simples, cela signifie qu'un régresseur est "perpendiculaire" au terme d'erreur.
Deux ou plusieurs IV sans lien (indépendant) l'un avec l'autre mais ayant tous deux une influence sur le DV. Chaque IV apporte séparément une valeur distincte au résultat, tandis que les deux ou tous les IV contribuent également de manière additive à la prévision du revenu (influence orthogonale = de l'IV non intersectant sur un DV). Les IV ne sont pas corrélationnels entre eux et sont généralement placés à angle droit * voir Diagramme de Venn.
Exemple: Relation entre la motivation et le nombre d'années d'études sur le revenu.
IV = années d'études IV = motivation DV = revenu
Les variables aléatoires associées signifient que les variables disent que X et Y peuvent avoir n'importe quelle relation; peut être linéaire ou non linéaire. Les propriétés d’indépendance et orthogonales sont les mêmes si les deux variables sont liées linéairement.