Bir web sayfasının yerel bir kopyasını indirmek ve tüm css, resimler, javascript, vb.
Önceki tartışmalarda (örneğin her ikisi de iki yaşından büyük olan burada ve burada ), genellikle iki öneri ileri sürülmektedir : wget -p
ve httrack . Ancak, bu önerilerin her ikisi de başarısız olur. Görevi yerine getirmek için bu araçlardan birini kullanma konusunda çok minnettar olurum; alternatifleri de güzel.
Seçenek 1: wget -p
wget -p
Web sayfasının tüm ön koşullarını (css, resimler, js) başarıyla indirir. Ancak, yerel kopyayı bir web tarayıcısına yüklediğimde, bu önkoşullara giden yollar web'deki sürümden değiştirilmediğinden sayfa önkoşulları yükleyemiyor.
Örneğin:
- Sayfanın html'sinde,
<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />
yeni göreli yolunu gösterecek şekilde düzeltilmesi gerekir.foo.css
- Css dosyasında,
background-image: url(/images/bar.png)
benzer şekilde ayarlanması gerekecektir.
wget -p
Yolların doğru olması için değiştirmenin bir yolu var mı ?
httrack
tüm web sitelerini yansıtmak için harika bir araç gibi görünüyor, ancak tek bir sayfanın yerel bir kopyasını oluşturmak için nasıl kullanılacağı açık değil. Httrack forumlarında bu konuyla ilgili (örneğin burada ) çok fazla tartışma var, ancak hiç kimsenin kurşun geçirmez bir çözümü yok gibi görünüyor.
Seçenek 3: Başka bir araç?
Bazı insanlar ücretli araçlar önerdi, ancak orada ücretsiz bir çözüm olmadığına inanamıyorum.
wget --random-wait -r -p -e robots=off -U mozilla http://www.example.com
wget -E -H -k -K -p http://example.com
- sadece bu benim için çalıştı. Kredi bilgileri: superuser.com/a/136335/94039