Це термін, специфічно з емпіричного Байєса (ЕБ), насправді поняття, на яке воно посилається, не існує в справжньому байєсівському висновку. Початковим терміном було "запозичення сили", яке було введено Джоном Тукі ще в 1960-х роках, а далі популяризоване Бредлі Ефроном та Карлом Моррісом у серії статистичних статей про парадокс Стайна та параметричний ЕБ у 1970-х та 1980-х роках. Зараз багато людей використовують «запозичення інформації» або «обмін інформацією» як синоніми одного і того ж поняття. Причина, чому ви можете почути це в контексті змішаних моделей, полягає в тому, що найбільш поширені аналізи для змішаних моделей мають інтерпретацію ЕВ.
EB має багато застосувань і застосовується до багатьох статистичних моделей, але контекст завжди полягає в тому, що у вас є велика кількість (можливо, незалежних) випадків і ви намагаєтеся оцінити певний параметр (наприклад, середнє значення або дисперсію) у кожному конкретному випадку. У байєсівському висновку ви робите задні висновки щодо параметра на основі спостережуваних даних для кожного випадку та попереднього розподілу цього параметра. Для висновку EB попередній розподіл для параметра оцінюється з усієї колекції випадків даних, після чого висновок протікає як для байєсівського висновку. Отже, коли ви оцінюєте параметр для конкретного випадку, ви використовуєте як дані для цього випадку, так і передбачуваний попередній розподіл, а останній представляє "інформацію" або "сила"
Тепер ви можете зрозуміти, чому EB має "запозичення", але справжній Байєс цього не робить. У справжнього Байєса попередній розподіл вже існує, тому його не потрібно просити чи брати в борг. В ЕБ попередній розподіл створюється із самих спостережуваних даних. Коли ми робимо висновок про певний випадок, ми використовуємо всю спостережувану інформацію з цього випадку та трохи інформації з кожного іншого випадку. Ми кажемо, що це лише "запозичено", оскільки інформація повертається, коли ми рухаємось далі, щоб зробити висновок про наступний випадок.
Ідея ЕБ та "запозичення інформації" широко використовується в статистичній геноміці, коли кожен "випадок" зазвичай є геном або геномною ознакою (Smyth, 2004; Phipson et al, 2016).
Список літератури
Ефрон, Бредлі та Карл Морріс. Парадокс Штейна в статистиці. Науковий американський 236, вип. 5 (1977): 119-127. http://statweb.stanford.edu/~ckirby/brad/other/Article1977.pdf
Сміт, GK (2004). Лінійні моделі та емпіричні методи Байєса для оцінки диференціальної експресії в експериментах з мікромасивом. Статистичні програми в генетиці та молекулярній біології Том 3, випуск 1, стаття 3.
http://www.statsci.org/smyth/pubs/ebayes.pdf
Phipson, B, Lee, S, Majewski, IJ, Alexander, WS, and Smyth, GK (2016). Надійна оцінка гіперпараметрів захищає від гіперваріативних генів і покращує потужність для виявлення диференціальної експресії. Літописи прикладної статистики 10, 946-963.
http://dx.doi.org/10.1214/16-AOAS920