Les valeurs t et R2 sont utilisées pour juger des choses très différentes. Les valeurs t sont utilisées pour juger de la précision de votre estimation des βi , mais R2 mesure la quantité de variation de votre variable de réponse expliquée par vos covariables. Supposons que vous estimez un modèle de régression avec n observations,
Yi=β0+β1X1i+...+βkXki+ϵi
où ϵi∼i.i.dN(0,σ2) , i=1,...,n .
De grandes valeurs t (en valeur absolue) vous conduisent à rejeter l'hypothèse nulle que βi=0 . Cela signifie que vous pouvez être sûr d'avoir correctement estimé le signe du coefficient. Aussi, si |t|> 4 et vous avez n>5 , alors 0 n'est pas dans un intervalle de confiance de 99% pour le coefficient. La valeur t pour un coefficient βi est la différence entre l'estimation βi^ et 0 normalisée par l'erreur standard se{βi^} .
t=βi^se{βi^}
qui est simplement l'estimation divisée par une mesure de sa variabilité. Si vous avez un ensemble de données suffisamment grand, vous aurez toujours des valeurs t statistiquement significatives (grandes) . Cela ne signifie pas nécessairement que vos covariables expliquent en grande partie la variation de la variable de réponse.
Comme mentionné @stat, R2 mesure la quantité de variation dans la variable de réponse expliquée par vos variables dépendantes. Pour en savoir plusR2 , rendez-vous surwikipedia. Dans votre cas, il semble que vous disposiez d'un ensemble de données suffisamment grand pour estimer avec précision lesβi , mais vos covariables expliquent et / ou prédisent mal les valeurs de réponse.