Je lisais récemment un article qui incorporait le hasard dans sa confiance et ses intervalles crédibles, et je me demandais si c'était standard (et, si oui, pourquoi c'était une chose raisonnable à faire). Pour définir la notation, supposons que nos données sont et que nous souhaitons créer des intervalles pour un paramètre θ ∈ Θ . J'ai l'habitude de construire des intervalles de confiance / crédibilité en construisant une fonction:
et en laissant notre intervalle être .
C'est aléatoire dans le sens où cela dépend des données, mais conditionnellement aux données c'est juste un intervalle. Ce document définit plutôt
et aussi une collection de iid variables aléatoires uniformes sur [ 0 , 1 ] . Il définit l'intervalle associé comme étant I = { θ ∈ Θ . Notez que cela dépend beaucoup du caractère aléatoire auxiliaire, au-delà de tout ce qui provient des données.
Je suis très curieux de savoir pourquoi on ferait cela. Je pense que «relâcher» la notion d'intervalle entre des fonctions comme et des fonctions comme g x a un certain sens; c'est une sorte d'intervalle de confiance pondéré. Je ne connais aucune référence pour cela (et j'apprécierais tout pointeur), mais cela semble tout à fait naturel. Cependant, je ne vois aucune raison d'ajouter un caractère aléatoire auxiliaire.
Tout pointeur sur la littérature / raisons de le faire serait apprécié!