По-перше, зауважте, що розмір блоку пристрою відрізняється від розміру блоку, який використовує файлова система. Колишнє значення, про яке повідомляє diskutil, відноситься до необмеженого розміру блоку, використовуваного обладнанням. Я не знайшов простий спосіб перевірити останнє значення за допомогою командного рядка, але ви можете просто створити файл з нульовим байтом, а потім отримати інформацію з Finder. Він буде говорити 0 байт, але 4k використовується на диску.
По-друге, за допомогою програми командного рядка можна створити файлову систему HFS + з більшими розмірами блоків, ніж 4k newfs_hfs
. Найпростіший спосіб - використовувати Disk Utility для розділення диска та створення розділу з форматуванням за замовчуванням, а потім використовувати /bin/df
для визначення блокового пристрою (лише приклад:) /dev/disk0s2
. Потім демонтуйте цей розділ (використовуючи umount /dev/diskXXX
або Disk Utility) і переформатуйте як HFS + з 64k блоками:
newfs_hfs -v VolumeName -b 65536 /dev/disk0s2
Використовуйте підказку «Отримати інформацію вище», щоб переконатися, що невеликий файл зараз займає 64 кб на диску (це може сказати 65 к для одиниць потужності 10).
Продуктивність - це головна причина, чому ви можете це зробити, якщо більшість даних, що зберігаються, є великими файлами (такими як MP3, фото, відео, .zip файли тощо), а також це допомагає утримувати низьку фрагментацію диска. Очевидно, не турбуйтеся, якщо ви плануєте зберігати в основному невеликі файли.
Я виявив, що на великих накопичувачах (> 1 ТБ), відформатованих як HFS з розміром блоку 4k за замовчуванням, коли накопичувач наближається до продуктивності, продуктивність запису жахливо знижується. Я здогадуюсь, що це пов’язано з тим, що розділ фрагментований і потрібно полювати і клювати на безкоштовні блоки, щоб виписати останні 1% даних. Я сподіваюся, що більші розміри блоків дещо полегшать цю проблему.