Bir web sitesinin tamamını nasıl indirebilirim?


351

Tüm sayfaları bir web sitesinden nasıl indirebilirim?

Herhangi bir platform iyi.



@tnorthcutt, ben de şaşırdım. Çok yanlış bir şey hatırlamıyorsam, Wget cevabım kabul edilmiş bir cevaptı ve bu çözülmüş bir şeye benziyordu. Yine de şikayetçi değilim - aniden yenilenen dikkat bana ödülün itibarından daha fazlasını verdi. : P
Jonik

IDM denedin mi? superuser.com/questions/14403/… Yazım gömüldü. IDM'de ne buldun?
Lazer

5
@joe: Kayıp özelliklerin ne olduğu hakkında detaylı bilgi verirseniz yardım edebilir ...
Ilari Kajaste 23.09

browse-offline.com web sitesinin tam ağacını indirebilir, böylece ... çevrimdışı gezinebilirsiniz
Menelaos Vergis

Yanıtlar:


334

HTTRACK , tüm sitenin içeriğini kopyalamak için bir şampiyon gibi çalışır. Bu araç, aktif kod içeriği olan bir web sitesinin çevrimdışı çalışmasını sağlamak için gereken parçaları bile alabilir. Çevrimdışı çoğaltabilecek şeylere hayran kaldım.

Bu program ihtiyacınız olan her şeyi yapacak.

İyi avlar!


7
Bunu yıllardır kullanıyorum - şiddetle tavsiye edilir.
Umber Yüksük

4
Bu olsa sunucuda çalışan asıl ASP kodunu kopyalar mı?
Taptronic

8
@Optimal Çözümler: Hayır, bu mümkün değil. Bunun için sunuculara veya kaynak koduna erişmeniz gerekir.
Sasha Chedygov

2
Hem httrack'ı hem de yetkilendirilmiş siteler için yazmayı denedikten sonra, wget lehine eğilmek zorundayım. Bu durumlarda çalışmak için httrack alınamadı.
Leo,

1
Kimlik doğrulama seçeneği nedir?
Vincent Mathew

272

Wget , bu tür görevler için klasik bir komut satırı aracıdır. Çoğu Unix / Linux sistemiyle gelir ve Windows için de alabilirsiniz. Mac'te Homebrew , onu kurmanın en kolay yoludur ( brew install wget).

Gibi bir şey yapardın:

wget -r --no-parent http://site.com/songs/

Daha fazla ayrıntı için, bkz. Wget El Kitabı ve örnekleri , ya da örneğin:


12
Bundan daha iyi bir cevap yok - wget herşeyi yapabilir: 3
Phoshi

6
-No-parent eklemek için +1. kesinlikle -r yerine --mirror kullanın. ve diğer sunuculara bağlantıları izlememek için göreli -L / - eklemeyi isteyebilirsiniz.
quack quixote

2
Ayrıca httrack.com için de sorduğum gibi - bu cmd satırı aracı ASP kodunu alır mı yoksa sadece HTML'nin görüntülenmesini mi alırdı? Bunu denemeliyim. Bu, geliştiriciler için biraz endişe verici olabilir ...
Taptronic

6
@optimal, elbette HTML çıktısı - kodu sadece sunucu yanlış yapılandırılmış
olsaydı alırdı

2
maalesef benim için çalışmıyor - css dosyalarına bağlantılar ile ilgili bir sorun var, bunlar göreceli olarak değiştirilmedi, yani dosyalarda böyle bir şey görebilirsiniz: <link rel = "stylesheet" type = "text / css" href = "/ static / css / reset.css" media = "screen" />, yerel olarak iyi çalışmaz, firefox'u belirli bir dizinin kök olduğunu düşünecek bir kandırmaca olmadığı sürece.
00'de

148

Wget kullan:

wget -m -p -E -k www.example.com

Seçenekler açıklandı:

-m, --mirror            Turns on recursion and time-stamping, sets infinite 
                          recursion depth, and keeps FTP directory listings.
-p, --page-requisites   Get all images, etc. needed to display HTML page.
-E, --adjust-extension  Save HTML/CSS files with .html/.css extensions.
-k, --convert-links     Make links in downloaded HTML point to local files.

8
Önerilen seçeneklerin açıklamalarını sağlamak için +1. (Her ne kadar --mirrorçok açıklayıcı olduğunu düşünmeme rağmen . İşte man sayfasından: " Bu seçenek yineleme ve zaman damgasını açar, sonsuz yineleme derinliğini belirler ve FTP dizini listelerini tutar. Şu anda -r -N - ye eşittir. l inf --no-remove-
list

2
Her şeyi yansıtmak istediğiniz etki alanı adıyla bir klasöre indirmek istemiyorsanız, kendi klasörünüzü oluşturun ve -nH seçeneğini kullanın (ana bilgisayar bölümünü atlar).
Rafael Bugajewski

2
Ya Yetkilendirme gerekliyse?
Val

4
Senin kullanmaya çalıştım wget --mirror -p --html-extension --convert-links www.example.comve sadece indeksi indirdi. -rTüm siteyi indirmek için ihtiyacınız olduğunu düşünüyorum .
Eric Brotto

4
trafik nedeniyle / çok fazla istek nedeniyle bir siteyi öldürmekle ilgilenenler için, -w seconds(istekler arasında birkaç saniye beklemek veya --limit-rate=amountindirirken kullanılacak maksimum bant genişliğini belirtmek için bir saniye beklemek için)
vlad-ardelean


8

Internet Download Manager , birçok seçeneğe sahip bir Site Grabber yardımcı programına sahiptir - bu, istediğiniz web sitesini tamamen istediğiniz gibi indirmenize olanak tanır.

  1. Sınırı, indirilecek sayfaların / dosyaların boyutuna göre ayarlayabilirsiniz.

  2. Ziyaret edilecek şube sitesi sayısını belirleyebilirsiniz.

  3. Komut dosyalarının / pop-up'ların / kopyaların davranış şeklini değiştirebilirsiniz

  4. Bir etki alanı belirleyebilirsiniz, yalnızca bu etki alanı altında, gerekli ayarları karşılayan tüm sayfalar / dosyalar indirilir.

  5. Bağlantılar tarama için çevrimdışı bağlantılara dönüştürülebilir

  6. Sizin için yukarıdaki ayarları seçmenize izin veren şablonlarınız var

görüntü tanımını buraya girin

Ancak yazılım ücretsiz değildir - bakın ihtiyaçlarınızı karşılayıp karşılamadığına bakın, değerlendirme sürümünü kullanın.



5

Tarayıcıların kullandığı çevrimiçi tamponlamayı ele alacağım ...

Genelde çoğu tarayıcı, bir web sitesinden indirdiğiniz dosyaları bir süre etrafta tutmak için göz atma önbelleği kullanır, böylece statik görüntüleri ve içeriği tekrar tekrar yüklemek zorunda kalmazsınız. Bu, bazı koşullar altında işleri biraz hızlandırabilir. Genel olarak, çoğu tarayıcı önbelleği sabit bir boyutla sınırlıdır ve bu sınıra ulaştığında, önbellekteki en eski dosyaları siler.

ISS'ler, ESPN ve CNN gibi yaygın olarak erişilen web sitelerinin kopyalarını tutan önbellek sunucularına sahip olma eğilimindedir. Bu, ağlarında birileri oraya gittiğinde onları bu sitelere vurma zahmetinden kurtarır. Bu, ISS'ye harici sitelere kopyalanmış taleplerin miktarında önemli bir tasarruf sağlayabilir.




4

Bunu yıllardır yapmadım, ancak hala birkaç tane yardımcı program var. Web Snake'i denemek isteyebilirsiniz . Yıllar önce kullandığıma inanıyorum. Sorunuzu okuduğumda adı hemen hatırladım.

Stecy ile aynı fikirdeyim. Lütfen sitelerini kırmayın. Çok Kötü


3

BackStreet Tarayıcı'yı deneyin .

Ücretsiz, güçlü bir çevrimdışı tarayıcıdır. Yüksek hızlı, çok iş parçacıklı bir web sitesi indirme ve görüntüleme programı. Birden fazla eşzamanlı sunucu talebi yaparak, BackStreet Browser, HTML, grafik, Java Applet'leri, ses ve diğer kullanıcı tarafından tanımlanabilir dosyaları içeren tüm web sitelerini veya sitelerin bir bölümünü hızlı bir şekilde indirebilir ve tüm dosyaları ya kendi formatlarında kaydedebilir, veya sıkıştırılmış bir ZIP dosyası olarak ve çevrimdışı görüntüleyin.

görüntü tanımını buraya girin


3

Teleport Pro , hedefiniz ne olursa olsun tüm dosyaları kopyalayacak başka bir ücretsiz çözümdür (ayrıca daha fazla içerik sayfası çekmenize izin veren ücretli bir sürümü de vardır).


3

DownThemAll , belirli bir web sayfası için tüm içeriği (örneğin ses veya video dosyaları) tek bir tıklamayla indirecek bir Firefox eklentisidir. Bu, sitenin tamamını karşıdan yüklemiyor, ancak bu, sorunun aradığı şey olabilir.


Yalnızca bağlantılar (HTML) ve medya (resimler) indirebilir.
Ain

3

Linux ve OS X için: Web sitelerinin tamamını WARC dosyalarına arşivlemek için bir toplama sitesi yazdım . Bu WARC dosyalarına göz atılabilir veya çıkartılabilir. grab-site, normal ifadeleri kullanarak hangi URL'lerin atlanacağını kontrol etmenizi sağlar ve tarama çalışırken bunlar değiştirilebilir. Ayrıca , önemsiz URL'leri yoksaymak için kapsamlı bir varsayılanlar kümesiyle birlikte gelir .

Taramaları izlemek için bir web panosunun yanı sıra, video içeriğini veya yanıtları belirli bir boyuttan atlamak için ek seçenekler de var.



0

Saygın FreeDownloadManager.org da bu özelliğe sahiptir.

Ücretsiz İndirme Yöneticisi, iki biçimde iki biçimde bulunur: Site Gezgini ve Site Örümcek :

Site Gezgini
Site Gezgini, bir web sitesinin klasör yapısını görüntülemenizi ve gerekli dosyaları veya klasörleri kolayca indirmenizi sağlar.
HTML Örümcek HTML Örümcek ile
tüm web sayfalarını veya hatta tüm web sitelerini indirebilirsiniz. Araç, yalnızca belirtilen uzantıları olan dosyaları indirmek için ayarlanabilir.

Site Gezgini'nin, sitenin tamamını indirmeyi denemeden önce hangi klasörlerin ekleneceğini / hariç tutulduğunu görmekte fayda var - özellikle siteyi örneğin indirmek istemediğiniz bir forum gizlendiğinde.



-3

Firefox bunu yerel olarak yapabilir (en az FF 42 olabilir). Sadece "Sayfayı Kaydet" i kullanın

görüntü tanımını buraya girin


6
Yanlış! Soru bir web sitesinin nasıl kaydedileceğini soruyor. Firefox bunu yapamaz.

2
Metodunuz sadece tek sayfalık bir siteydi, fakat sitenin 699 sayfası varsa işe yarar. Çok yorucu olurdu ...
Quidam

-4

Google chrome'un bunu masaüstü cihazlarda yapabileceğine inanıyorum, tarayıcı menüsüne gidin ve web sayfasını kaydet'i tıklayın.

Ayrıca cep gibi servislerin aslında web sitesini kaydetmeyebileceğini ve bu nedenle çürümeye karşı duyarlı olduklarını unutmayın.

Son olarak, bir web sitesinin içeriğinin kopyalanmasının, eğer geçerliyse, telif haklarını ihlal edebileceğini unutmayın.


3
Tarayıcınızdaki bir web sayfası , bir web sitesinden yalnızca bir tanesidir .
Arjan

@Arjan Sanırım bu seçenek işçimi yoğunlaştırıyor. İnsanların yalnızca bir sayfa kaydetmek istemelerinin daha yaygın olduğuna inanıyorum, bu nedenle bu cevap, bunun için buraya gelenler için daha iyi olabilir.
jiggunjer
Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.