No soy un usuario habitual de Mac. Quería obtener un desglose del uso del disco en un Mac, así que habiendo instalado ncdu
a través de homebrew hace años, hice sudo ncdu -x /
. Al darme cuenta de que tardaría una eternidad, instalé duc
con brew install duc
, configúralo en el perfil con sudo duc index -xpH /
. (Banderas: -x
= no cruzan los límites del sistema de archivos, -H
= contar los enlaces duros una vez, -p
= progreso). Esta mañana este Mac de 120 GB había conseguido escanear hasta 2 TB. He matado el proceso y desactivado el WiFi, por si había montado la unidad de red, y he vuelto a intentarlo: mismo problema. Me he dado por vencido y he vuelto a ncdu
: el mismo problema. Acepté la derrota e instalé alguna aplicación gráfica que parece hacer el trabajo.
Pregunta: ¿de dónde vienen todos estos datos? Estoy familiarizado con los enlaces duros que se cuentan doblemente, pero ambos duc
y ncdu
puede corregirlo. Nunca he visto un comportamiento como este en ningún sistema Linux; claramente, el modelo de sistema de archivos de Mac es muy diferente. ¿Qué es lo que ocurre?
(Me doy cuenta de que parte de lo que ocurre es mi ingenuidad al intentar utilizar herramientas de Linux en un Mac. He corregido eso. Pero quiero saber qué está pasando a nivel del sistema de archivos porque nunca había visto un problema de esta magnitud: si te olvidas de excluir las rutas especiales en Linux puedes obtener unos cuantos MB de tonterías (aunque la mayoría simplemente fallan); los hardlinks pueden darte más de lo que querías, pero no por ese orden de magnitud. Está claro que MacOS expone un modelo subyacente muy diferente).