Цікавим варіантом було б вивчення зменшення розмірності на основі нейронів. Найпоширеніший тип мережі для зменшення розмірності, автокодер, може бути навчений ціноюO(i⋅n), де iявляє собою ітерації тренувань (гіперпараметр, незалежний від даних тренувань). Тому складність навчання спрощується доO(n).
Ви можете почати, ознайомившись з семінарською роботою Хінтона та Салахутдінова 2006 року [1]. З тих пір речі значно розвивалися. Зараз більшість домагань досягається Варіаційними автокодерами [2], але основна ідея (мережа, яка реконструює вхід на своєму вихідному шарі з проміжним шаром між ними) залишається тією ж. Зауважимо, що на відміну від PCA та RP, автокодери виконують нелінійне зменшення розмірності. Крім того, на відміну від t-SNE, автокодери можуть трансформувати невидимі зразки без необхідності перенавчати всю модель.
З практичної сторони я рекомендую ознайомитись із цією публікацією , де викладено детальну інформацію про те, як реалізувати різні типи автокодер з чудовою бібліотекою Keras.
[1] Хінтон, Дж. Е. та Салаххутдінов, RR (2006). Зменшення розмірності даних за допомогою нейронних мереж. науки, 313 (5786), 504-507.
[2] Кінгма, Д.П., і Веллінг, М. (2013). Автоматичне кодування варіативних місць. переддрук arXiv arXiv: 1312.6114.