En primer lugar, tenga en cuenta que el tamaño de bloque del dispositivo es diferente del tamaño de bloque utilizado por el sistema de archivos. El primer valor reportado por diskutil se refiere al tamaño de bloque crudo usado por el hardware. No he encontrado una manera fácil de comprobar este último valor mediante la línea de comandos, pero puedes crear un archivo de cero bytes y luego hacer Get Info desde el Finder. Dirá 0 bytes, pero 4k usados en el disco.
En segundo lugar, puede crear un sistema de archivos HFS+ con tamaños de bloque superiores a 4k utilizando el programa de línea de comandos newfs_hfs
. La forma más fácil es utilizar la Utilidad de Discos para particionar la unidad y crear una partición con el formato predeterminado, a continuación, utilice /bin/df
para determinar el dispositivo de bloque (sólo un ejemplo: /dev/disk0s2
). A continuación, desmonte esa partición (utilizando umount /dev/diskXXX
o Utilidad de Discos), y volver a formatear como HFS+ con 64k bloques hacer:
newfs_hfs -v VolumeName -b 65536 /dev/disk0s2
Utilice el consejo Obtener información anterior para verificar que un archivo pequeño ocupa ahora 64k en el disco (puede decir 65k para unidades de potencias de 10).
El rendimiento es la principal razón por la que puedes querer hacer esto, si la mayoría de los datos a almacenar son archivos grandes (como MP3s, fotos, vídeos, archivos .zip, etc), y también ayuda a mantener baja la fragmentación del disco. Obviamente, no te molestes si planeas almacenar principalmente archivos pequeños.
He descubierto que en unidades grandes (> 1 TB) formateadas como HFS con el tamaño de bloque predeterminado de 4k, cuando la unidad se acerca a su capacidad, el rendimiento de escritura se degrada terriblemente. Supongo que se debe a que la partición está fragmentada y tiene que cazar y picotear bloques libres para escribir el último 1% de los datos. Espero que los tamaños de bloque más grandes alivien un poco este problema.