Так, можливо.
Якщо матриця даних не вписується в оперативну пам'ять, це ще не кінець світу: є ефективні алгоритми, які можуть працювати з даними, що зберігаються на жорсткому диску. Див., Наприклад, рандомізований PCA, як описано в Halko et al., 2010, Алгоритм аналізу основних компонентів великих наборів даних .
У Розділі 6.2 автори згадують, що вони спробували свій алгоритм на матриці даних 400k разів 100k, і це
Алгоритм цього документу вимагав 12,3 годин для обробки всіх 150 ГБ цього набору даних, що зберігаються на диску, використовуючи портативний комп'ютер з 1,5 ГБ оперативної пам’яті […].
Зауважте, що це було за старих часів магнітних жорстких дисків; сьогодні доступні набагато швидші твердотілі накопичувачі, тому я думаю, той же алгоритм працював би значно швидше.
Дивіться також цю стару тему для більшого обговорення рандомізованого PCA: Найкращий алгоритм PCA для величезної кількості функцій (> 10K)? і цей великий огляд у 2011 р. Галько та ін.: Пошук структури з випадковістю: ймовірнісні алгоритми побудови приблизних матричних декомпозицій .