Bütün bir web sitesini (alt sitelerle birlikte) indirmek istiyorum. Bunun için herhangi bir araç var mı?
--convert-links
wget kullanarak kullanmak ) başka şeylerin yanı sıra yalnızca bir form göndererek ortaya çıkan siteleri de göstermeyecektir.
Bütün bir web sitesini (alt sitelerle birlikte) indirmek istiyorum. Bunun için herhangi bir araç var mı?
--convert-links
wget kullanarak kullanmak ) başka şeylerin yanı sıra yalnızca bir form göndererek ortaya çıkan siteleri de göstermeyecektir.
Yanıtlar:
Buradan örnek 10'u deneyin :
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
–mirror
: yansıtmaya uygun seçenekleri aç.
-p
: Belirli bir HTML sayfasını düzgün görüntülemek için gerekli olan tüm dosyaları indirin.
--convert-links
: indirdikten sonra, yerel görüntüleme için belgedeki bağlantıları dönüştürün.
-P ./LOCAL-DIR
: tüm dosyaları ve dizinleri belirtilen dizine kaydet.--wait=seconds
Siteye daha yakın olmak istiyorsanız , tartışmayı kullanmayı düşünebilirsiniz ; alımlar arasında belirtilen saniye sayısını bekleyecektir.
httrack , aradığınız araçtır.
HTTrack , İnternet'ten yerel bir dizine bir World Wide Web sitesi indirmenize, tekrarlı bir şekilde tüm dizinleri oluşturmanıza, HTML, resimler ve diğer dosyaları sunucudan bilgisayarınıza indirmenize izin verir. HTTrack, orijinal sitenin göreceli bağlantı yapısını düzenler.
Bir wget
web sitesinin tamamını indirebileceğinizden, özyinelemeli bir indirme -r
için switch'i kullanmalısınız . Örneğin,
wget -r http://www.google.com
WEBHTTRACK WEB SİTESİ COPIER , çevrimdışı bir tarama için bir web sitesinin tamamını sabit diskinize indirmek için kullanışlı bir araçtır. Ubuntu yazılım merkezini açın ve arama kutusuna "webhttrack website copyier" yazın. seçin ve yazılım merkezinden sisteminize indirin. webHTTrack'i başlatıcınızdan veya başlatıcı menüsünden başlatın, oradan sitenizdeki indirmeler için bu harika aracın tadını çıkarmaya başlayabilirsiniz.
Alt alanlar, yani alt siteler hakkında bilgim yok, ancak wget tam bir siteyi kapmak için kullanılabilir. Bu süper kullanıcı sorusuna bir göz atın . -D domain1.com,domain2.com
Tek bir komut dosyasında farklı etki alanları indirmek için kullanabileceğinizi söylüyor . Alt alanları indirmek için bu seçeneği kullanabileceğinizi düşünüyorum.-D site1.somesite.com,site2.somesite.com
Kullandığım Burp örümcek aracı wget çok daha zeki olduğunu ve gerekirse bölümleri önlemek için yapılandırılabilir -. Burp Suite'in kendisi teste yardımcı olacak güçlü bir araç kümesidir, ancak örümcek aracı çok etkilidir.
Tüm Web Sitesi Komutunu indirebilirsiniz:
wget -r -l 0 website
Örnek :
wget -r -l 0 http://google.com
Hız kaygılıysa (ve sunucunun refahı değilse), wget gibi çalışan, ancak birkaç sayfayı paralel olarak indirebileceğiniz puf'u deneyebilirsiniz . Bununla birlikte, bitmiş bir ürün değildir, bakımı yapılmaz ve korkunç şekilde belgelendirilmez. Yine de, çok ve çok sayıda ufacık dosya içeren bir web sitesini indirmek için, bu iyi bir seçenek olabilir.