La définition standard (disons) d'un intervalle de confiance (IC) à 95% exige simplement que la probabilité qu'il contienne le vrai paramètre est de 95%. De toute évidence, ce n'est pas unique. Le langage que j'ai vu suggère que parmi les nombreux CI valides, il est généralement logique de trouver quelque chose comme le plus court, ou symétrique, ou connu précisément même lorsque certains paramètres de distribution sont inconnus, etc. En d'autres termes, il ne semble pas y avoir hiérarchie évidente de ce que les CI sont «meilleurs» que les autres.
Cependant, je pensais qu'une définition équivalente de CI est qu'elle se compose de toutes les valeurs telles que l'hypothèse nulle selon laquelle le vrai paramètre est égal à cette valeur ne serait pas rejetée au niveau de signification approprié après avoir vu l'échantillon réalisé. Cela suggère que tant que nous choisissons un test que nous aimons, nous pouvons automatiquement construire le CI. Et il existe une préférence standard parmi les tests basés sur le concept UMP (ou UMP parmi les tests non biaisés).
Y a-t-il un avantage à définir CI comme celui correspondant au test UMP ou quelque chose comme ça?