Wir haben ein RAID 6-Array mit 12 TB, das als einzelne Partition mit einem XFS- Dateisystem eingerichtet werden soll. Beim Erstellen des neuen Dateisystems werden 78 GB verwendet, es befinden sich jedoch keine Dateien auf dem Laufwerk.
[root@i00a ~]# df -h
Filesystem Size Used Avail Use% Mounted on
devtmpfs 32G 0 32G 0% /dev
tmpfs 32G 0 32G 0% /dev/shm
tmpfs 32G 11M 32G 1% /run
tmpfs 32G 0 32G 0% /sys/fs/cgroup
/dev/sdb3 154G 3.9G 150G 3% /
/dev/sdb2 1014M 153M 862M 16% /boot
/dev/sdb1 599M 6.7M 593M 2% /boot/efi
/dev/sdc1 187G 1.6G 185G 1% /var
tmpfs 6.3G 0 6.3G 0% /run/user/0
/dev/sda1 11T 78G 11T 1% /export/libvirt
Habe ich etwas falsch gemacht? Ist das beabsichtigt?
Es sieht so aus, als würde das Dateisystemprotokoll nur etwa 2 GB belegen, und ich kann nicht herausfinden, was den Speicherplatz sonst noch belegen könnte.
[root@i00a ~]# xfs_info /export/libvirt/
meta-data=/dev/sda1 isize=512 agcount=11, agsize=268435455 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=1, sparse=1, rmapbt=0
= reflink=1
data = bsize=4096 blocks=2929458688, imaxpct=5
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0, ftype=1
log =internal log bsize=4096 blocks=521728, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0
Partitionsinformationen:
[root@irb00a ~]# parted /dev/sda1
GNU Parted 3.2
Using /dev/sda1
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) print
Model: Unknown (unknown)
Disk /dev/sda1: 12.0TB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:
Number Start End Size File system Flags
1 0.00B 12.0TB 12.0TB xfs
Dies ist ein Dell FX2 mit vier FC430-Rechenknoten und zwei FD332-Speicherknoten, auf denen Red Hat Enterprise Linux 8 ( Ootpa ) ausgeführt wird.
bsize=4096 blocks=2929687500
), ist dasdf -h
ErgebnisSize 11T, Used 12G
nicht78G
wie in Ihrem Beispiel.xfsdump
erzeugt eine 21KB Datei ... ;-)reflink=1
aber der Standard für mich warreflink=0
. Mitreflink=1
, heißt es auch78G
gebraucht für mich, damit ich es jetzt reproduzieren kann.Antworten:
Für XFS
df -h
scheint das von angezeigte leere Dateisystem "Verwendete Größe" in hohem Maße davon abhängig zu sein, welche Metadatenfunktionen Sie zurmkfs.xfs
Zeit aktivieren .Testen mit einer leeren 12-TB-Datei:
Standardeinstellungen (auf meinem aktuellen ArchLinux-System):
Verwenden von
reflink=1
:Unter Verwendung
crc=0
,reflink=0
(aus irgendeinem Grund, dass auch drehtfinobt=0
,sparse=0
)Zusamenfassend:
"Verwendeter" Speicherplatz auf einem neuen 12-TB-Dateisystem ist also 78G, 12G oder nur 33M, abhängig davon, welche Metadaten-Features Sie zur Zeit von mkfs aktivieren.
quelle
reflinks=1
standardmäßigAlle Dateisysteme haben einen Overhead für ihre eigenen internen Datenstrukturen. Diese internen Informationen werden für das Dateisystem verwendet, um künftig Dateien und Verzeichnisse zu erstellen und zu verfolgen, wo alles zugeordnet ist. Diese Daten werden zusammenfassend als "Metadaten" bezeichnet. Es sind Daten "über" die Daten im Dateisystem. Die Metadaten werden als Overhead betrachtet, da sie Speicherplatz beanspruchen, aber keine Benutzerdaten sind. Dieser Overhead ist ein unvermeidbarer Nebeneffekt bei der Verwendung eines Dateisystems.
Laut diesem Blogbeitrag hat XFS einen Overhead von rund 0,5% des gesamten Festplattenspeichers. (Beachten Sie, dass dieser Beitrag aus dem Jahr 2009 stammt, aber es gibt keinen Grund, warum dies drastisch geändert werden sollte.) Zu diesem Ergebnis kam er beim Testen des Dateisystem-Overheads von über einem Dutzend verschiedener Dateisysteme
guestfish
.0,5% Ihres 12-TB-Speicherplatzes sind 60 GB groß. Dies scheint also ziemlich nahe an der erwarteten Nutzung zu liegen. Ich vermute, dass seine Zahl etwas höher als 0,5% gewesen sein sollte, aber dass es gerundet wurde.
quelle
df
.