Ich habe den folgenden Befehl ausprobiert:
$ wget -q --tries=10 --timeout=20 --spider http://google.com
(Von diesem SO Post . Ich möchte meine Internetverbindung in Bash überprüfen.)
Ich erhalte folgende Ausgabe:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://google.com/
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 302 Found
Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA [following]
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
Scheint OK zu sein, aber wenn sudo
ich den Befehl mit ausführe , erhalte ich Folgendes:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:27-- http://google.com/
Resolving google.com (google.com)... failed: Name or service not known.
wget: unable to resolve host address ‘google.com’
Ich brauche diese Zeile in einem Skript, mit dem ich aufrufe sudo
und damit es immer fehlschlägt.
Kann mir jemand den Grund dafür nennen? Wie kann ich das umgehen?
wget
bei google.com scheint keine gute Methode zu sein, um zu überprüfen, ob eine Internetverbindung funktioniert. Sie verfügen beispielsweise möglicherweise über eine Verbindung, die HTTP-Verbindungen zu Google zulässt, die jedoch die Aufgaben Ihres Skripts verbietet ; oder Google verbietet möglicherweise den wget-Zugriff auf ihre Website. Was ist das eigentliche Problem, für das Sie sudo wget blah
eine mögliche Lösung sehen?