«wget» etiketlenmiş sorular

GNU Wget, en çok kullanılan İnternet protokolleri olan HTTP, HTTPS ve FTP kullanarak dosyaları almak için ücretsiz bir yazılım paketidir. Etkileşimli olmayan bir komut satırı aracıdır, bu nedenle komut dosyalarından, Cron işlerinden, X Pencere Sistemi (X11) desteği olmayan terminallerden vb. Kolayca çağrılabilir.

0
Wget İndirilecek Alt Dizinleri Belirtin (-I)
Sadece kullanmaya başladım wgetve dosyaları kaydetmek için konum indirip belirleyebiliyorum, ancak indirmeyi ana dizinin bölümleriyle sınırlandırmaya çalıştığımda sorunlar yaşıyorum. Eğer dizini sınırlamaya çalışan bir şey içermezsem, her şey yolunda gider ve tüm belgeleri alırım ancak -Ifonksiyonun doğru çalışmasını sağlayamıyorum . wget -r -nd -A pdf -I /002-60N87,/007-61E84,/008-61E85,/009-61E89,/010-61E90,/065-61E29,/PA061-10A http://apps.dot.st.gov/ep/de/080318/ -P M:/TEMPORARY/WGET/ …

1
Bir web sitesinin girişini arkasına atmanın kolay yolu?
İle wget --recursive --no-clobber --page-requisites --html-extension \ --convert-links --restrict-file-names=windows \ --domains example.com --no-parent example.com çevrimdışı görüntüleme için bütün bir web sitesini terk edebilir miyim. Dökmek istediğim web sitesi giriş yapmamı gerektiriyor, bu yüzden çerezi kaydeden ve yeniden yükleyen bir Bash komut dosyası yazabiliyorum, ancak zaman alıyor. Sanırım Firefox için Scrapbook …

1
wget indir pdf dosyaları başarısız
Ben kullanıyorum: wget -r -A pdf https://labraj.uni-mb.si fakat pdf'ler yerine bu çıktıyı konsoldan alıyorum: --2013-03-23 15:11:03-- https://labraj.uni-mb.si/ Resolving labraj.uni-mb.si (labraj.uni-mb.si)... 164.8.230.26 Connecting to labraj.uni-mb.si (labraj.uni-mb.si)|164.8.230.26|:443... connected. HTTP request sent, awaiting response... 301 Moved Permanently Location: https://labraj.uni-mb.si/Splo%C5%A1ne_informacije [following] --2013-03-23 15:11:09-- https://labraj.uni-mb.si/Splo%C5%A1ne_informacije Reusing existing connection to labraj.uni-mb.si:443. HTTP request sent, awaiting response... …
1 linux  pdf  wget 

1
wget Web sayfasını tamamen tek bir dosya ve bir varlık klasörüne indirin
Chrome veya Firefox'ta sağ tıklayıp "Farklı Kaydet, tamamlandı" seçeneğini taklit etmeye çalışıyorum. Bunu denedim: wget -E -H -k -K -p http://gizmodo.com Ancak bu, kaynakları barındıran her etki alanı için bir tane olan birkaç klasör oluşturdu. Ben de denedim wget -r -N -l inf --no-remove-listing -x http://gizmodo.com Her ikisi de buradan …
1 wget  archiving 

0
Wget ile giriş yapmak için giriş yapmam gereken sayfaları indirin
İçeriğe göz atabilmem için önce giriş yapmam gereken bir web sitesi var ve içerik çevrimdışı iken göz atabilseydim işim için çok faydalı olurdu. Birkaç şey için eğitim ve tamir bilgisi. Sayfaları almak için bize yazabilirdim, ancak sayfaları almak için nasıl giriş yaptığımı ya da wget'in çalışıp çalışmayacağını bilemedim. Sayfaları indirmek …

5
Site haritasını almak için web sitesi tarayıcısı / örümcek [kapalı]
Bir web sitesi haritasını aşağıdaki gibi bir biçimde almam gerekiyor: http://example.org/ http://example.org/product/ http://example.org/service/ http://example.org/about/ http://example.org/product/viewproduct/ Gibi bağlı tabanlı (dosya veya dir brute-force), ihtiyacım var: ayrıştırma anasayfası - & gt; tüm bağlantıları al - & gt; onları keşfet - & gt; bağlantıları al ... Ayrıca, bir sayfanın "alt sayfaların" tümünü almamak …



1
İmg class = “decoded” img src URL'sini kullanarak web sitesinden tek görüntüleri indirmek için Wget'i kullanma
Bir web sitesinden tek resim çekmek istiyorum. Web sitesinde fotoğraflar var. Fotoğrafları tıklamak başka bir sayfaya yönlendirir. Fotoğrafları html'deki img src etiketinden almak istiyorum. Zaten istediğim img src satırlarını çıkarmak için unix kodum var. Örnek: img src = "http://website.com/photo.php?user_id=231&photo_id=23&thumbnail=1&SID=kdede19f8z1t38be1" Bu URL'yi indirmek için wget kullandığımda boş bir dosya alıyorum. Bu …

1
İnternet bağlantısı kalktığında dosyaları otomatik olarak indirmek için wget autostart nasıl?
Windows XP kullanıyorum. içeren bir toplu iş dosyası oluşturdum wget -i links.txt --read-timeout=2 -t 0 -w 0 --waitretry=0 -c --no-check-certificate -bve "links.txt" dosyası, indirmek istediğim dosyaları gösteren URL'leri içeriyor. Bilgisayarım önyüklendiğinde wget'ın başlamasını sağlamak için bu toplu iş dosyasını ve "links.txt" dosyasını "C: \ Documents and Settings \ kullanıcı \ …
wget 

1
404 bulunmayan ana sayfanın tüm alt html sayfalarını indirin?
Merhaba CS50 öğreniyorum ve tüm problem setlerini çevrimdışı olarak indirmek istiyorum. Her sorun gibi tek bir HTML sayfası gibi görünür http://docs.cs50.net/problems/recover/recover.html http://docs.cs50.net/problems/fifteen/fifteen.html ana sayfa iken http://docs.cs50.net/problems/ Bir döner 404 hatası. Tüm alt html sayfalarını nasıl indirebilirim? Denedim wgetve httrackbaşarısız oldum . Teşekkürler!
wget 

1
WGET / cron web kamera dosyasını indirme
yeni kasaba doktorumuz, insanların ne kadar kalabalık olduğunu görmesi için bekleme odasına bir web kamerası yerleştirdi. Annem ve büyükannem ve büyükbabam bu doktora gittikçe, dosyaları periyodik olarak indirmek istedim ve orada yakalanırlarsa, fotoğrafı onlara göndermek istedim. Çocukça, biliyorum, ancak erteleme işlemimi sınav döneminde beslemem gerekiyor. :) Şimdi, benim sorunum. Doktorun …

1
Ne wget ne de curl bu wikipedia api isteğini indirmiyor
Bu linki mükemmel bir şekilde indirebilir ve bir web tarayıcı ortamında metin dosyası olarak kaydedebilirim. Ancak bu wikipedia api isteğini ne wget ne de curl kullanarak indirip kaydedemiyorum. Kullanıyorum wget -O file.txt https://that-ugly-url, ancak bir tarayıcı kullanarak indirebileceğim doğru api yanıtı yerine farklı bir html içeriği içeriyor.
linux  wget  curl  api 

0
Giriş dosyası olan Wget “Böyle bir dosya veya dizin yok” diyor
URL’deki bazı dosyaları almak için Wget for Windows’u kullanmak istiyorum. WgetInput.txt Belgeleri okuduktan sonra, kullanmam gereken komutu anladım: wget --no-cache -o WgetLogFile.txt -i "./WgetInputFile.txt" --random-wait Ancak, bu komutu Komut İstemi'nden çalıştırırken, aşağıdaki mesajı logfile'de alıyorum: WgetInputFile.txt: Böyle bir dosya veya dizin yok Geen URL’nin WgetInputFile.txt dosyasındaki değeri. ( çevrildi: WgetInputFile.txt …
wget 

1
bir web sayfası formu doldurmak için wget kullanma
MO piyango web sitesindenwget son 100 oyun geçmişini keno için indirmeye çalışıyorum . Örnek aralığı -> 1420698-1420797 Web sayfası bir aralık girmeyi ve ardından bir düğmeyi tıklatmayı gerektirir. Süreci otomatikleştirmeye çalışıyorum ama çok başarılı olamadım. Aşağıda, yukarıda bağlantı verilen sayfadan çıkardığım değerlerin bir listesi bulunmaktadır. <form name="winnersForm"> <input type="text" name="drawnumber" …
wget 

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.