监控网站URL是否正常 wget命令 下载网页或文件 --spider 模拟爬虫的行为去访问网站,但不会下载网页 -q, --quiet 安静的访问,禁止输出,类似-o /dev/null功能 -o, --output-file=FILE 记录输出到文件 -T, --timeout=SECONDS 访问网站的超时时间 -t, --tries=NUMBER 当网站异常时重试网站的次数 [root@yunsu_daoyi ~]# wget --spider -T 5 -q -t 2 www.baidu.com [root@yunsu_daoyi ~]# echo $? 0 [root@yunsu_daoyi ~]# wget --spider -T 5 -q -t 2 www.11111baidu.com [root@yunsu_daoyi ~]# echo $? 4 curl命令 访问网站url -I /--head 显示响应头信息 -m /--max-time 访问超时的时间 -o /--output 记录访问信息到文件 -s /--silent 沉默模式访问,就是不输出信息 -w /--write-out 以固定特殊的格式输出,例如:%{http_code},输出状态码 [root@yunsu_daoyi ~]# curl -s -o /dev/null www.baidu.com [root@yunsu_daoyi ~]# echo $? 0 [root@yunsu_daoyi ~]# curl -I -m 5 -s -w "%{http_code}\n" -o /dev/null www.baidu.com 200