Розщеплення зразків, можливо, може зменшити проблему з розподілом статистики, але це не усуне.
Ваша ідея уникає питання, що оцінки будуть "занадто близькими" щодо значень населення, оскільки вони базуються на одній вибірці.
Ви не уникаєте проблеми, яку вони все ще оцінюють. Розподіл тестової статистики не є табличним.
У цьому випадку це збільшує швидкість відхилення під нуль, а не різко зменшує її.
Кращий вибір - використовувати тест, коли параметри не вважаються відомими, наприклад, Shapiro Wilk.
Якщо ви приєдналися до тесту Колмогорова-Смірнова, ви можете скористатися тестом Лілліфорса.
Тобто використовувати статистику KS, але розподіл тестової статистики відображає ефект оцінки параметрів - імітують розподіл статистики тесту за оцінкою параметрів. (Це більше не є розподілом, тому вам потрібні нові таблиці для кожного розподілу.)
http://en.wikipedia.org/wiki/Lilliefors_test
Liliefors використовував моделювання для нормального та експоненціального випадку, але ви можете легко зробити це для будь-якого конкретного розподілу; у чомусь на зразок R - це питання моментів, щоб імітувати 10 000 чи 100 000 проб та отримати розподіл тестової статистики під нулем.
[Альтернативою може бути розгляд Андерсона-Дарлінга, у якого є той самий випуск, але який, судячи з книги Д'Агостіно і Стівенса ( методики доброго пристосування ), видається менш чутливим до цього. Ви можете адаптувати ідею Lilliefors, але вони пропонують порівняно просту корекцію, яка, здається, працює досить добре.]
Але є й інші підходи; Є сімейства плавних тестів на придатність, наприклад (див. книгу Рейнера та Беста), які в ряді конкретних випадків можуть мати справу з оцінкою параметрів.
* ефект все ще може бути досить великим - можливо, більшим, ніж зазвичай вважали прийнятним; Момо правильно висловити занепокоєння з цього приводу. Якщо рівень помилок вищого типу I (і більш плоска крива потужності) є проблемою, то це може не бути поліпшенням!