Si j'ai calculé correctement, la régression logistique a asymptotiquement la même puissance que le test t. Pour le voir, notez sa log log vraisemblance et calculez l'attente de sa Hesse à son maximum global (son négatif estime la matrice variance-covariance de la solution ML). Ne vous embêtez pas avec le paramétrage logistique habituel: il est plus simple de le paramétrer avec les deux probabilités en question. Les détails dépendront exactement de la façon dont vous testez la signification d'un coefficient de régression logistique (il existe plusieurs méthodes).
Que ces tests aient des pouvoirs similaires ne devrait pas être trop surprenant, car la théorie du chi carré pour les estimations de ML est basée sur une approximation normale de la vraisemblance logarithmique, et le test t est basé sur une approximation normale des distributions de proportions. Le nœud du problème est que les deux méthodes font les mêmes estimations des deux proportions et que les deux estimations ont les mêmes erreurs types.
Une analyse réelle pourrait être plus convaincante. Adoptons une terminologie générale pour les valeurs d'un groupe donné (A ou B):
- est la probabilité de 1.p
- est la taille de chaque série de tirages.n
- est le nombre d'ensembles de tirages.m
- est la quantité de données.N=mn
- (égal à 0 ou 1 ) est la valeur du j ème résultat du i ème jeu de tirages.kij01jthith
- est le nombre total de uns dans le i ème jeu de tirages.kiith
- est le nombre total de uns.k
La régression logistique est essentiellement l'estimateur ML de . Son logarithme est donné parp
log(L)=klog(p)+(N−k)log(1−p).
Ses dérivées par rapport au paramètre sontp
∂Journal( L )∂p= kp- N- k1 - p et
- ∂2Journal( L )∂p2= kp2+ N- k( 1 - p )2.
Réglage des premier à zéro l'estimation ML des rendements p = k / N , et de brancher ce que dans l'inverse de la seconde expression donne la variance p ( 1 - p ) / N , qui est le carré de l'erreur standard.p^= k / Np^( 1 - p^) / N
La statistique t sera obtenue à partir d'estimateurs basés sur les données regroupées par ensembles de tirages; à savoir, comme la différence des moyennes (l'une du groupe A et l'autre du groupe B) divisée par l'erreur-type de cette différence, qui est obtenue à partir des écarts-types des moyennes. Examinons donc la moyenne et l'écart-type pour un groupe donné. Les moyennes égales , qui est identique à l'estimateur ML p . L'écart type en question est l' écart type des moyens d'étirage; c'est-à-dire qu'il s'agit de l'écart type de l'ensemble de k i / n . Voici le nœud du problème, alors explorons quelques possibilités.k/Np^ki/n
Supposons que les données ne sont pas regroupés en tire du tout: qui est, et m = N . Les k i sont les moyens de tirage. Leur échantillon variance est égale à N / ( N - 1 ) fois p ( 1 - p ) . Il en résulte que l'erreur-type est identique à l'erreur-type ML à l'exception d'un facteur √n=1m=NkiN/(N−1)p^(1−p^) , qui est essentiellement1lorsqueN=1800. Par conséquent - à part cette petite différence - tout test basé sur la régression logistique sera le même qu'un test t et nous obtiendrons essentiellement la même puissance.N/(N−1)−−−−−−−−−√1N=1800
Lorsque les données sont regroupées, la (vraie) variance des est égale à p ( 1 - p ) / n car les statistiques k i représentent la somme de n variables de Bernoulli ( p ), chacune avec la variance p ( 1 - p ) . Par conséquent, l' erreur type attendue de la moyenne de m de ces valeurs est la racine carrée de p ( 1 - p ) / n / m =ki/np(1−p)/nkinpp(1−p)m , comme précédemment.p(1−p)/n/m=p(1−p)/N
Le chiffre 2 indique que la puissance du test ne devrait pas varier sensiblement selon la répartition des tirages (c'est-à-dire avec la façon dont et n varient en fonction de m n = N ), à part peut-être un effet assez faible de l'ajustement dans l'échantillon variance (sauf si vous étiez assez stupide pour utiliser extrêmement peu de jeux de tirages au sein de chaque groupe).mnmn=N
Simulations limitées pour comparer à p = 0,74 (avec 10 000 itérations chacune) impliquant m = 900 , n = 1 (régression essentiellement logistique); m = n = 30 ; et m = 2 , n = 450 (maximisation de l'ajustement de la variance de l'échantillon) le confirment: la puissance (à α = 0,05p=0.70p=0.74m=900,n=1m=n=30m=2,n=450α=0.05, unilatéral) dans les deux premiers cas est de 0,59 alors que dans le troisième, où le facteur d'ajustement fait un changement important (il n'y a maintenant que deux degrés de liberté au lieu de 1798 ou 58), il tombe à 0,36. Un autre test comparant à p = 0,52 donne des puissances de 0,22, 0,21 et 0,15, respectivement: encore une fois, nous observons seulement une légère baisse de l'absence de regroupement en tirages (= régression logistique) au regroupement en 30 groupes et une baisse substantielle à seulement deux groupes.p=0.50p=0.52
La morale de cette analyse est:
- Vous ne perdez pas grand-chose lorsque vous partitionnez vos valeurs de données en un grand nombre m de groupes de "tirages" relativement petits.Nm
- Vous pouvez perdre une puissance appréciable en utilisant un petit nombre de groupes ( est petit, n - la quantité de données par groupe - est grande).mn
- Il vaut mieux ne pas regrouper vos valeurs de données en "tirages" du tout. Il suffit de les analyser tels quels (en utilisant tout test raisonnable, y compris la régression logistique et les tests t).N