Я тлумачу це питання дещо ліберально. Для структур даних у стилі Окасакі запам'ятовування - це форма неявної мутації, яка побічно впливає на час роботи. Таким чином, я прийму питання, що стосується стійких структур даних у суворому розумінні, а не структур даних із суто функціональною реалізацією, які є підмножиною першої. Я маю на увазі, що ви повинні мати доступ до старих версій структури даних без штрафних санкцій, дерево версій може розгалужуватися довільно тощо.
У цьому контексті я вважаю, що стійкий УНІСНУВАННЯ є важливою відкритою проблемою. Є папір Конхона-Філлітре, про яку згадували в іншій темі. Коментолог вже підняв проблему зі своїм так званим постійним масивом: це дійсно лише напівстійкі. Але припустимо, ви замінюєте його хеш-трією або іншим справді стійким масивом, який веде себе краще в гіршому (і, можливо, середньому) випадку, але гірше в кращому випадку. Це все ще залишає важливим питання відкритим:
У документі наведено формальне підтвердження коректності в Coq. Але вони не вирішують амортизовану складність ні формально, ні неофіційно. Мені дуже не зрозуміло, що складна закулісна мутація призводить до очікуваної амортизованої складності у всіх випадках. Коли я востаннє думав про це, я відчував дещо впевненість, що зможу побудувати контрприклад, якщо докладу зусиль. Навіть якщо я помиляюся з приводу останньої частини, відсутність належного аналізу є головною прогалиною; зрозуміло, що класичний аналіз амортизації Траяна UNION-FIND безпосередньо не передає.