Запис у Вікіпедії про завантажувальний процес насправді дуже хороший:
http://en.wikipedia.org/wiki/Bootstrapping_%28statistics%29
Найбільш поширена причина завантажувального завантаження - це коли невідома форма базового розподілу, з якого береться зразок. Традиційно статистики припускають нормальний розподіл (з дуже поважних причин, пов'язаних із теоремою про центральну межу), але статистичні дані (такі як стандартне відхилення, довірчі інтервали, обчислення потужності тощо), розраховані за допомогою звичайної теорії розподілу, є строго справедливими лише в тому випадку, коли базовий розподіл населення є нормальний.
Шляхом повторного повторного відбору самого зразка завантажувальний процес дає змогу оцінювати незалежність розподілу. Традиційно кожен "повторний вибір" вихідного зразка випадковим чином вибирає ту саму кількість спостережень, що і в вихідній вибірці. Однак вони вибираються із заміною. Якщо у вибірці є N спостережень, кожен повторний зразок завантажувальної програми матиме N спостережень, при цьому багато з початкових зразків повторюються, а багато виключаються.
Параметр, що цікавить (наприклад, коефіцієнт шансів тощо), потім може бути оцінений з кожного завантаженого зразка. Повторення завантажувального приводу 1000 разів дозволяє оцінити "медіану" та 95% довірчий інтервал на статистиці (наприклад, коефіцієнт шансів), вибравши 2,5-й, 50-й та 97,5-й перцентилі.