Monte edilmiş sürücüden boş alan nasıl elde edilir Redhat 7


14

VM altyapımızda, SAN'a giden kümelenmiş ana makinelerimiz var.

Ne anlamaya çalışıyorum Redhat sunucuları içindeki dosyaları silerken ne kadar "boşluk" kalıyor. Windows sunucumuzda sdelete kullanıyoruz ve bu sorunu ortadan kaldırıyor, ancak Linux ile bir çözüm bulmakta zorlanıyorum.

"Beyaz boşluğu" sektör olarak mı tanımlıyorum? SSD sürücülerinin yazmadan önce ilk sıfıra girmeleri gerektiği sıfırlanmamıştır.

Belirteceğim bir şey Linux söz konusu olduğunda, tehlikeli olmak için yeterince biliyorum ama süper bir kullanıcı değilim.

Sürücüleri ve bölümleri gözden geçirme:

[root@rhserver1-DATA10 /]# fdisk -l

Disk /dev/sda: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk label type: dos
Disk identifier: 0x0005d52e

   Device Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     1026047      512000   83  Linux
/dev/sda2         1026048   104857599    51915776   8e  Linux LVM

Disk /dev/sdb: 53.7 GB, 53687091200 bytes, 104857600 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-root: 51.0 GB, 50964987904 bytes, 99540992 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/rhel_rhserver1--data10-swap: 2147 MB, 2147483648 bytes, 4194304 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Şimdi disk kullanımına bakalım:

[root@rhserver1-DATA10 /]# df -h
Filesystem                              Size  Used Avail Use% Mounted on
/dev/mapper/rhel_rhserver1--data10-root   48G  6.1G   42G  13% /
devtmpfs                                906M     0  906M   0% /dev
tmpfs                                   921M  340K  920M   1% /dev/shm
tmpfs                                   921M   90M  831M  10% /run
tmpfs                                   921M     0  921M   0% /sys/fs/cgroup
/dev/sdb                                 50G  3.5G   44G   8% /ACMS01Backup
/dev/sda1                               497M  210M  288M  43% /boot
tmpfs                                   185M   20K  185M   1% /run/user/1000
tmpfs                                   185M     0  185M   0% /run/user/1002

Google'da saatlerce çalıştıktan sonra bunu buldum, bana ne kadar "beyaz alanın" temizlenebileceğini gösteriyor.

[root@rhserver1-DATA10 /]#  parted /dev/sda unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
1.02MB
[root@rhserver1-DATA10 /]#  parted /dev/sda unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
0.00%

497M bölümü için makul bir çıktı olduğunu düşünüyorum.

Şimdi aynı şeyi sadece monte edilmiş sürücümde yapmak istiyorum (monte edilmiş olduğunu düşünüyorum.)

 parted /dev/mapper/rhel_rhserver1--data10-root unit MB print free | grep 'Free Space' | tail -n1 | awk '{print $3}'
 parted /dev/mapper/rhel_rhserver1--data10-root unit '%' print free | grep 'Free Space' | tail -n1 | awk '{print $3}'

Bu bana hiçbir şey vermiyor.

/ Etc / fstab /:

[root@rhserver1-DATA10 /]# cat /etc/fstab
/dev/mapper/rhel_rhserver1--data10-root /                       xfs     defaults        0 0
UUID=2f97a17c-a6d5-4904-ad5c-7c16b4510201 /boot                   xfs     defaults        0 0
/dev/mapper/rhel_rhserver1--data10-swap swap                    swap    defaults        0 0
/dev/disk/by-uuid/be4c45cf-5d72-4b97-b647-2e585947041f /ACMS01Backup auto nosuid,nodev,nofail,x-gvfs-show 0 0

Benim sorum doğru yolda mıyım?

Ne aradığımı açıkladım mı?

"Beyaz alan" için Google'ımın işine yarayabilecek bir terim var mı?

Ben kök üzerinde "fstrim -v /" çalıştırabilir bulduk ama gerçekten ne kadar yer olduğunu bilmek istiyorum.

Ayrıca ben bu üretim sistemi fstrim I / O yoğun olduğunu anlamaya çalışıyorum, yoğun saatlerde çalıştırılmalıdır?

Herhangi bir veri kaybı şansı "fstrim -v /" çalışıyor?


Ayrıca discarddosya sistemlerinde bağlama seçeneğini de ayarlayabilirsiniz .
Michael Hampton

Belki de / dev / mapper yerine bağlı sürücünün UUID'sini mi kullanıyorsunuz? Çalışmayı deneyin blkidve UUID'yi alıp alamayacağınızı görün ve partedkomutu yeniden çalıştırın .
wilbo

Yanıtlar:


12

/ Bölümleri üzerinde fstrim çalıştırmak en iyi çözüm olacaktır, ancak onlar ESXi yapılandırılmış yolu ile mümkün olmazdı.

Hem VM'de hem de depolama aygıtında atmayı etkinleştirebilmeniz gerekir.

Xfs dosya sistemi ile bir bölümün veya mantıksal birimin boyutuna küçültmeye çalışmak, bu fedora ile ilgili bilinen bir hatadır. Bu işlevsellik ile ilgileniyorsanız lütfen Red Hat desteğine başvurun ve Red Hat bugzilla 1062667'ye başvurun ve XFS azaltma / küçültme gereksinimi için kullanım durumunuzu sağlayın.

Bazı ortamlarda olası bir çözüm olarak, ince provizyonlu LVM hacimleri XFS dosya sisteminin altında ek bir katman olarak düşünülebilir.

VM'ler istekli kalın koşullu VMDK ise, bu da birimlerinizi kesmeye (teknik olarak; SCSI UNMAP) giriştiğinizde geri kazanılacak hiçbir şey olmadığı anlamına gelir.

Arka uç depolama ince provizyon çalıştırıyorsa, depolama alanını azaltmak ve arka ucun sıcak verileri önbelleğe almasını / veri tekilleştirmesini mümkün kılmak için tembel sıfırlanmış VMDK dosyaları da kullanmanız gerekir.

İki olası seçenek:

  1. Depolama alanı bir SAN genelinde uzak bir sunucu tarafından sağlandığında, blokları yalnızca depolamanın yetersiz sağlanması durumunda atabilirsiniz.

    1. VMTüm VM'leri farklı bir veri deposuna aktarın ve yerleşik VMWare araçlarını kullanın
    2. SSH ile ESXi Ana Bilgisayarına Bağlanma
    3. Sanal Makine Klasörüne Git
    4. Du ile disk kullanımını doğrulayın
    5. Vmkfstools -K [disk] komutunu çalıştırın
    6. Du ile disk kullanımını doğrulayın
  2. gg = = dev / sıfır = BÜYÜK DOSYA bs = 1024000 rm -f BÜYÜK DOSYA

Ne söyleyebilirim bu sdelete ile aynı şeyi yapar ancak disk I / O bir artış neden olabilir ve aynı zamanda çalıştırmak için biraz zaman alabilir.

Gece boyunca denenecek bir şey

Her iki seçenek de en iyisi değildir ancak ext3 veya ext4 elde etmek için her VM'yi yeniden biçimlendirmek mümkün görünmemektedir.

Yapabileceğiniz şey, tüm linux VM'leri için bir yakınlık kuralı oluşturmak ve yukarıdan 1. seçeneği kullanmaktır.


12

Aynı şeyi birkaç hafta önce yapmaya çalışıyorum ve nasıl yapacağımı bulamıyorum. Resmi beyanı Redhat destek portalında paylaşıyorum.

Xfs dosya sistemiyle şu anda bir bölümün veya mantıksal birimin boyutunu küçültmek mümkün değildir. Bu işlevsellik ile ilgileniyorsanız lütfen Red Hat desteğine başvurun ve Red Hat bugzilla 1062667'ye başvurun ve XFS azaltma / küçültme gereksinimi için kullanım durumunuzu sağlayın. Bazı ortamlarda olası bir çözüm olarak, ince provizyonlu LVM hacimleri XFS dosya sisteminin altında ek bir katman olarak düşünülebilir.

İyi şanslar!!


Yorum için teşekkür ederim, ancak VM için kullanılabilir alanın boyutunu azaltmaya çalışmıyorum. SSD sürücülerinde (hata) veri silindiğinde sektör ilk olarak sıfırlanır ve daha sonra sektör daha önce hiç yazılmamışsa vs'ye yazılabilir. Ben "fstrim -v /" kullanabilirsiniz sdelete ile windows gibi anlamaya çalışıyorum. Çalıştırmadan önce kaç sektörden etkilenip etkilenmeyeceğini ve sistem üzerinde ne gibi etkiler yaratabileceğini anlamaya çalışıyorum.
Anthony Fornito
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.