Відповіді:
Є кілька. Ви знайдете вичерпне порівняння в цьому посиланні на неоперовану версію статті (відповідна посилання внизу цієї відповіді).
Через обмеження проблеми, розбиття найбільш надійних із цих алгоритмів (L / RMC) становить не більше 12,5%. Перевагою L / RMC є те, що він заснований на квантових показниках і залишається інтерпретованим, навіть коли базовий розподіл не має моментів. Ще одна перевага полягає в тому, що він не передбачає симетричності розподілу незабрудненої частини даних для вимірювання ваги хвоста: насправді алгоритм повертає два числа: RMC для правої ваги хвоста та LMC для лівої ваги хвоста.
за конструкцією: жодна кількість забруднення не може, наприклад, призвести до повернення алгоритму -1!). На практиці можна виявити, що можна замінити близько 5% вибірки навіть дуже патологічними, які не впливають на оцінку (завжди є дві), щоб занадто сильно відступити від значення, яке вона мала для незабрудненої вибірки.
L / RMC також широко застосовується. Наприклад , ви можете знайти реалізацію R тут . Як пояснено у статті, що пов’язана вище, для обчислення L / RMC вам потрібно обчислити MC (оцінювач, реалізований за посиланням) окремо в лівій і правій половині ваших даних. Тут (ліва) права половина - це підрозділи спостереження, утворені спостереженнями (меншими), більшими за медіану вашого вихідного зразка.