По-перше, вам потрібно зрозуміти, що ці дві багаторазові процедури тестування не контролюють одне і те ж. Використовуючи ваш приклад, ми маємо дві групи з 18000 спостережуваних змінних, і ви робите 18 000 тестів, щоб виявити деякі змінні, які відрізняються від однієї групи до іншої.
Корекція Bonferroni контролює коефіцієнт помилок Familywise , тобто ймовірність, якщо припустити, що всі 18000 змінних мають однаковий розподіл у двох групах, що ви помилково стверджуєте, "тут у мене є суттєві відмінності". Зазвичай ви вирішили, що якщо ця ймовірність <5%, ваша претензія є достовірною.
Корекція Бенджаміні-Хохберга контролює показник помилкового виявлення , тобто очікувану частку помилкових позитивних змінних змінних, для яких ви заявляєте про існування різниці. Наприклад, якщо з контролем FDR до 5% 20 тестів є позитивними, "в середньому" лише 1 з цих тестів буде хибнопозитивним.
Тепер, коли кількість порівнянь збільшується… ну, це залежить від кількості граничних нульових гіпотез, які є істинними. Але в основному, з обох процедур, якщо у вас є кілька, скажімо, 5 або 10, по-справжньому пов'язаних змінних, у вас є більше шансів виявити їх серед 100 змінних, ніж серед 1 000 000 змінних. Це повинно бути досить інтуїтивним. Цього не уникнути.