Aşağıdaki komutu denedim:
$ wget -q --tries=10 --timeout=20 --spider http://google.com
( Bu SO yayınından . İnternet bağlantımı bash olarak kontrol etmek istiyorum.)
Aşağıdaki çıktıyı alıyorum:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://google.com/
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 302 Found
Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA [following]
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
Tamam görünüyor, ancak cmd'yi çalıştırarak şunu sudo
alıyorum:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:27-- http://google.com/
Resolving google.com (google.com)... failed: Name or service not known.
wget: unable to resolve host address ‘google.com’
Bu çizgiye çağırdığım bir betikte ihtiyacım var sudo
ve böylece her zaman başarısız oluyor.
Biri bana bunun nedenini söyleyebilir mi? Bu konuda nasıl çalışabilirim?
wget
Google.com'a rastgele bir uygulama yürütmek, bir internet bağlantısının çalıştığını kontrol etmenin iyi bir yolu gibi görünmüyor: örneğin, Google’a HTTP bağlantılarına izin veren ancak komut dosyanızın gerçekten yapmak istediklerini yasaklayan bir bağlantıda olabilirsiniz. ; veya Google, sitelerine wget erişimini yasaklayabilir. Bunun sudo wget blah
olası bir çözüm olduğunu düşündüğünüz asıl sorun nedir ?