Yanıtlar:
wget
Sayfayı indirmek ve aşağıdaki gibi bir değişkene okumak için command kullanabilirsiniz :
content=$(wget google.com -q -O -)
echo $content
Sayfa içeriğinin dökümü yapılan dosyanın adını belirlememize izin veren -O
seçeneği kullanıyoruz . Biz belirtmek standart çıkışa üzerine dökümü almak ve değişken içine toplamak . Wget çıktısını kapatmak için sessiz seçeneğini ekleyebilirsiniz .wget
wget
-
content
-q
Bunun için curl komutunu şu şekilde kullanabilirsiniz :
content=$(curl -L google.com)
echo $content
İstediğimiz -L
sayfa taşınmış olabileceği için seçeneği kullanmamız gerekiyor . Bu durumda sayfayı yeni konumdan almamız gerekir. -L
Veya --location
opsiyon bu bize yardımcı olur.
src
, doğru elemanın özniteliğini çıkarmanız ve ardından o sayfayı indirmeniz gerekir . Eğer yüklerseniz tq bu komut bunu yapmalıdır:curl -s http://ww1.watchop.io/manga2/read/one-piece/1/4 | tq -j -a src "#imgholder a img" | xargs wget
convert_links = on
ile kabul edilmiyor -O-
. Hata ile başarısız oluyor -k can be used together with -O only if outputting to a regular file.
. Bekleniyor mu?
Komut satırından bir sayfa almanın birçok yolu vardır ... ama aynı zamanda kod kaynağını mı yoksa sayfanın kendisini mi istediğinize bağlıdır:
Kod kaynağına ihtiyacınız varsa:
curl ile:
curl $url
wget ile:
wget -O - $url
ancak bir tarayıcıyla görebildiğinizi elde etmek istiyorsanız, lynx yararlı olabilir:
lynx -dump $url
Sanırım bu küçük problem için pek çok çözüm bulabilirsin, belki de bu komutlar için tüm man sayfalarını okumalısın. Ve $url
URL'nizle değiştirmeyi unutmayın :)
İyi şanslar :)
Orada wget
komut veya curl
.
Artık wget ile indirdiğiniz dosyayı kullanabilirsiniz. Veya curl ile bir akışı idare edebilirsiniz.
Kaynaklar:
Eğer varsa LWP yüklü, sadece "adlı bir ikili sağlar GET ".
$ GET http://example.com <! DOCTYPE HTML PUBLIC "- // W3C // DTD HTML 4.01 Geçiş // EN"> <HTML> <Head> <META http-equiv = "İçerik Türü" content = "text / html; charset = utf-8"> <TITLE> Örnek Web Sayfası </TITLE> </ Head> <Body> <p> Bu web sayfasına & quot; example.com & quot; yazarak ulaştınız, Ve quot; example.net & quot; & quot; example.org ve quot veya & quot; example.edu & quot; web tarayıcınıza. </p> <p> Bu alan adları, belgelerde kullanılmak üzere ayrılmıştır ve mevcut değildir Kayıt için. <a href="http://www.rfc-editor.org/rfc/rfc2606.txt"> RFC'ye bakın 2606 </a>, Bölüm 3. </p> </ BODY> </ HTML>
wget -O-
, curl
ve lynx -source
benzer şekilde davranın.
Ham veriyi curl
veya wget
geri almak için kullanabilir veya w3m -dump
bir web sayfasının güzel bir metin temsiline sahip olmak için kullanabilirsiniz .
$ foo=$(w3m -dump http://www.example.com/); echo $foo
You have reached this web page by typing "example.com", "example.net","example.org" or "example.edu" into your web browser. These domain names are reserved for use in documentation and are not available for registration. See RFC 2606, Section 3.