Supposons que j'essaie d'estimer un grand nombre de paramètres à partir de données de grande dimension, en utilisant une sorte d'estimations régularisées. Le régularisateur introduit un certain biais dans les estimations, mais il peut toujours être un bon compromis car la réduction de la variance devrait plus que compenser.
Le problème survient lorsque je veux estimer les intervalles de confiance (par exemple en utilisant l'approximation de Laplace ou le bootstrap). Plus précisément, le biais dans mes estimations entraîne une mauvaise couverture dans mes intervalles de confiance, ce qui rend difficile la détermination des propriétés fréquentistes de mon estimateur.
J'ai trouvé quelques articles discutant de ce problème (par exemple "Intervalles de confiance asymptotiques dans la régression de crête basée sur l'expansion d'Edgeworth" ), mais les calculs sont surtout au-dessus de ma tête. Dans le document lié, les équations 92-93 semblent fournir un facteur de correction pour les estimations qui ont été régularisées par régression de crête, mais je me demandais s'il y avait de bonnes procédures qui fonctionneraient avec une gamme de régularisateurs différents.
Même une correction de premier ordre serait extrêmement utile.