Майже 2 десятиліття тому переважав би діапазон Windows 98 до XP, включаючи NT4 та 2000 на робочій станції / сервері.
Усі жорсткі диски також були б магнітним накопичувачем з кабелем PATA або SCSI, оскільки SSD коштували дорожче, ніж комп'ютер, а SATA не існувало.
Як йдеться у відповіді WooShell, нижчі логічні сектори на диску (поза пластиною), як правило, найшвидші. Мої велоцирапторні накопичувачі потужністю 1 Тб починаються зі швидкістю 215 МБ / с, але у зовнішніх секторах падають до 125 МБ / с, на 40% падіння. А це 2,5-дюймовий привід для дисків, тому більшість 3,5-дюймових дисків, як правило, спостерігають все більші падіння продуктивності, що перевищують 50% . Це є основною причиною того, що основний розділ залишається малим, але він застосовується лише там, де розділ невеликий щодо розміру диска.
Іншою основною причиною збереження розділу був малим, якщо ви використовували FAT32 як файлову систему, яка не підтримувала розділи розміром більше 32 Гб. Якщо ви використовували NTFS, до Windows 2000 підтримувались розділи до 2 Тб, то до 256 ТБ.
Якщо ваш розділ був занадто малим щодо кількості даних, які були б записані, його легше роздробити, а складніше дефрагментувати. З вас може просто вичерпатися місця, як те, що трапилося з вами. Якщо у вас було занадто багато файлів відносно розмірів розділів та кластерів, керування таблицею файлів може бути проблематичним, і це може вплинути на продуктивність. Якщо ви використовуєте динамічні об'єми для надмірності, збереження надлишкових обсягів, наскільки це необхідно, заощадить місце на інших дисках.
Сьогодні все по-іншому, у сховищі клієнтів переважають флеш-накопичувачі або магнітні накопичувачі, прискорені спалахом. Зберігання, як правило, багате, і до нього можна легко додати більше робочої станції, тоді як за PATA днів у вас, можливо, виникло лише одне невикористане з'єднання диска для додаткових пристроїв зберігання даних.
Тож це все-таки гарна ідея, чи вона має якусь користь? Це залежить від даних, які ви зберігаєте, і способів управління ними. Моя робоча станція C: всього 80 Гб, але сам комп’ютер має понад 12 ТБ пам’яті, розповсюджений на декілька накопичувачів. Кожен розділ містить лише певний тип даних, і розмір кластера підходить як до типу даних, так і до розміру розділу, який утримує фрагментацію поблизу 0 і не дозволяє MFT нерозумно великим.
Недоліком є те, що є невикористаний простір, але продуктивність збільшується більше, ніж компенсує, і якщо мені потрібно більше місця, я додаю більше накопичувачів. C: містить операційну систему та часто використовувані програми. P: містить менш розповсюджені програми та являє собою SSD на 128 ГБ із нижчим ступенем довговічності запису, ніж C :. T: знаходиться на меншому SLC SSD і містить тимчасові файли користувачів та операційної системи, включаючи кеш браузера. Відео та аудіофайли зберігаються на магнітному сховищі, як і зображення, резервні копії та архівовані дані на віртуальній машині, вони, як правило, мають розмір кластера 16 КБ або більші, і при читанні / записі переважає послідовний доступ. Я запускаю дефрагвацію лише раз на рік на розділах з високою гучністю запису, і це займає близько 10 хвилин, щоб виконати всю систему.
У мого ноутбука є лише один 128 ГБ SSD та інший випадок використання, тому я не можу зробити те саме, але все одно розділяюсь на 3 розділи, C: (80 ГБ і програми), T: (8 ГБ темп) і F: ( Користувальницькі файли на 24 ГБ), що добре допомагає контролювати фрагментацію, не витрачаючи місця, і ноутбук буде замінено задовго до того, як у мене вичерпається місце. Це також значно полегшує резервне копіювання, оскільки F: містить єдині важливі дані, які регулярно змінюються.