C'est un terme qui provient spécifiquement de Bayes empiriques (EB), en fait le concept auquel il fait référence n'existe pas dans la vraie inférence bayésienne. Le terme d'origine était "force d'emprunt", inventé par John Tukey dans les années 1960 et popularisé par Bradley Efron et Carl Morris dans une série d'articles statistiques sur le paradoxe de Stein et l'EB paramétrique dans les années 1970 et 1980. De nombreuses personnes utilisent désormais «emprunt d'informations» ou «partage d'informations» comme synonymes du même concept. La raison pour laquelle vous pouvez l'entendre dans le contexte des modèles mixtes est que les analyses les plus courantes pour les modèles mixtes ont une interprétation EB.
EB a de nombreuses applications et s'applique à de nombreux modèles statistiques, mais le contexte est toujours que vous avez un grand nombre de cas (éventuellement indépendants) et que vous essayez d'estimer un paramètre particulier (comme la moyenne ou la variance) dans chaque cas. Dans l'inférence bayésienne, vous faites des inférences postérieures sur le paramètre en fonction à la fois des données observées pour chaque cas et de la distribution antérieure de ce paramètre. Dans l'inférence EB, la distribution a priori du paramètre est estimée à partir de l'ensemble de la collection de cas de données, après quoi l'inférence se déroule comme pour l'inférence bayésienne. Par conséquent, lorsque vous estimez le paramètre pour un cas particulier, vous utilisez à la fois les données de ce cas et également la distribution antérieure estimée, et celle-ci représente l '"information" ou la "force"
Vous pouvez maintenant voir pourquoi EB a "emprunté" mais pas vrai Bayes. Dans les vrais Bayes, la distribution antérieure existe déjà et n'a donc pas besoin d'être mendiée ou empruntée. Dans EB, la distribution préalable a été créée à partir des données observées elles-mêmes. Lorsque nous faisons des inférences sur un cas particulier, nous utilisons toutes les informations observées de ce cas et un peu d'informations de chacun des autres cas. Nous disons qu'il est seulement «emprunté», car les informations sont rendues lorsque nous passons à l'inférence sur le prochain cas.
L'idée d'EB et d '«emprunt d'information» est largement utilisée en génomique statistique, lorsque chaque «cas» est généralement un gène ou une caractéristique génomique (Smyth, 2004; Phipson et al, 2016).
Les références
Efron, Bradley et Carl Morris. Le paradoxe de Stein en statistiques. Scientific American 236, no. 5 (1977): 119-127. http://statweb.stanford.edu/~ckirby/brad/other/Article1977.pdf
Smyth, GK (2004). Modèles linéaires et méthodes bayésiennes empiriques pour évaluer l'expression différentielle dans des expériences de puces à ADN. Applications statistiques en génétique et biologie moléculaire Volume 3, numéro 1, article 3.
http://www.statsci.org/smyth/pubs/ebayes.pdf
Phipson, B, Lee, S, Majewski, IJ, Alexander, WS et Smyth, GK (2016). Une estimation hyperparamétrique robuste protège contre les gènes hypervariables et améliore la puissance de détection de l'expression différentielle. Annals of Applied Statistics 10, 946-963.
http://dx.doi.org/10.1214/16-AOAS920