VM altyapımızda, SAN'a giden kümelenmiş ana makinelerimiz var.
Ne anlamaya çalışıyorum Redhat sunucuları içindeki dosyaları silerken ne kadar "boşluk" kalıyor. Windows sunucumuzda sdelete kullanıyoruz ve bu sorunu ortadan kaldırıyor, ancak Linux ile bir çözüm bulmakta zorlanıyorum.
"Beyaz boşluğu" sektör olarak mı tanımlıyorum? SSD sürücülerinin yazmadan önce ilk sıfıra girmeleri gerektiği sıfırlanmamıştır.
Belirteceğim bir şey Linux söz konusu olduğunda, tehlikeli olmak için yeterince biliyorum ama süper bir kullanıcı değilim.
Sürücüleri ve bölümleri gözden geçirme:
[root@rhserver1-DATA10 /]# fdisk -l
Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e
Device Boot Start End Blocks Id System
/dev/sda1 * 2048 1026047 512000 83 Linux
/dev/sda2 1026048 104857599 51915776 8e Linux LVM
Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Şimdi disk kullanımına bakalım:
[root@rhserver1-DATA10 /]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root 48G 6.1G 42G 13% /
devtmpfs 906M 0 906M 0% /dev
tmpfs 921M 340K 920M 1% /dev/shm
tmpfs 921M 90M 831M 10% /run
tmpfs 921M 0 921M 0% /sys/fs/cgroup
/dev/sdb 50G 3.5G 44G 8% /ACMS01Backup
/dev/sda1 497M 210M 288M 43% /boot
tmpfs 185M 20K 185M 1% /run/user/1000
tmpfs 185M 0 185M 0% /run/user/1002
Google'da saatlerce çalıştıktan sonra bunu buldum, bana ne kadar "beyaz alanın" temizlenebileceğini gösteriyor.
[root@rhserver1-DATA10 /]# parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]# parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%
497M bölümü için makul bir çıktı olduğunu düşünüyorum.
Şimdi aynı şeyi sadece monte edilmiş sürücümde yapmak istiyorum (monte edilmiş olduğunu düşünüyorum.)
parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
Bu bana hiçbir şey vermiyor.
/ Etc / fstab /:
[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root / xfs defaults 0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot xfs defaults 0 0
/dev/mapper/rhel_rhserver1--data10-swap swap swap defaults 0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0
Benim sorum doğru yolda mıyım?
Ne aradığımı açıkladım mı?
"Beyaz alan" için Google'ımın işine yarayabilecek bir terim var mı?
Ben kök üzerinde "fstrim -v /" çalıştırabilir bulduk ama gerçekten ne kadar yer olduğunu bilmek istiyorum.
Ayrıca ben bu üretim sistemi fstrim I / O yoğun olduğunu anlamaya çalışıyorum, yoğun saatlerde çalıştırılmalıdır?
Herhangi bir veri kaybı şansı "fstrim -v /" çalışıyor?
blkid
ve UUID'yi alıp alamayacağınızı görün ve parted
komutu yeniden çalıştırın .
discard
dosya sistemlerinde bağlama seçeneğini de ayarlayabilirsiniz .