url用法详解
curl的命令行工具功能非常强大,这些数据交互的功能基本上都是通过URL方式进行的,我们先来看看curl对多个URL的灵活操作,这些规则使我们的批处理需求应用起来非常方便。
1、用{}表示多个URL
如http://site.{one,two,three}.com,只要在{}中写上不同的部分,就可以表示3个URL了。
========查看命令帮助======== [root@localhost ~]# curl -h
[root@localhost ~]# curl -s -I -s/--silent Silent mode. Don't output anything -I/--head Show document info only HTTP/1.1 200 OK Server: cofcoweb Date: Tue, 28 Apr 2015 02:46:00 GMT Content-Type: text/html; charset=gbk Content-Length: 587705 Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT Connection: keep-alive Vary: Accept-Encoding ETag: "553ef385-8f7b9" Accept-Ranges: bytes HTTP/1.1 200 OK Server: nginx Date: Tue, 28 Apr 2015 02:46:00 GMT Content-Type: text/html; charset=gbk Content-Length: 587810 Last-Modified: Tue, 28 Apr 2015 02:45:22 GMT Connection: keep-alive Vary: Accept-Encoding ETag: "553ef442-8f822" Accept-Ranges: bytes HTTP/1.1 200 OK Server: nginx Date: Tue, 28 Apr 2015 02:46:00 GMT Content-Type: text/html; charset=gbk Content-Length: 587705 Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT Connection: keep-alive Vary: Accept-Encoding ETag: "553ef385-8f7b9" Accept-Ranges: bytes HTTP/1.1 200 OK Server: nginx Date: Tue, 28 Apr 2015 02:46:00 GMT Content-Type: text/html; charset=gbk Content-Length: 587705 Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT Connection: keep-alive Vary: Accept-Encoding ETag: "553ef385-8f7b9" Accept-Ranges: bytes HTTP/1.1 200 OK Server: nginx Date: Tue, 28 Apr 2015 02:46:00 GMT Content-Type: text/html; charset=gbk Content-Length: 587705 Last-Modified: Tue, 28 Apr 2015 02:42:13 GMT Connection: keep-alive Vary: Accept-Encoding ETag: "553ef385-8f7b9" Accept-Ranges: bytes
2、用[]表示多个URL
如ftp://ftp.numericals.com/file[1-100].txt,ftp://ftp.numericals.com/file[001-100].txt,ftp://ftp.letters.com/file[a-z].txt, []中表示按数字或字母的顺序排列。
还能表示不连续的排列,如http://www.numericals.com/file[1-100:10].txt,http://www.letters.com/file[a-z:2].txt,":" 后面的数字表示等差排列的阶跃数。
3、结合起来使用
如http://any.org/archive[1996-1999]/vol[1-4]/part{a,b,c}.html。
curl命令行工具的基本语句为:curl [options] [URL...],即 curl [选项] [下载地址]。
因此,如果你想下载百度的首页,最简单的方法启动cmd,进入curl安装目录,输入命令:curl http://www.baidu.com,回车,你的输出窗口将立即出现百度首页的html数据。
对于所有的布尔型option,基本上--option表示支持这个选项,--no-option表示禁用这个选项。
下面总结几个比较有用的 options。
1、-o/--output <file>
这个基本上要算最常用的选项了,用于将下载的数据保存到某个文件中。
例:将百度首页保存在baidu.com文件中
[root@kaibin ~]# curl -o baidu.com http://www.baidu.com % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 100 88558 0 88558 0 0 16355 0 --:--:-- 0:00:05 --:--:-- 2059k root@kaibin ~]# ll -h baidu.com -rw-r--r--. 1 root root 87K 1月 9 03:42 baidu.com
下载过程中标准输出还会显示下载的统计信息,比如进度、下载字节数、下载速度等。如果指定输出为"-",则下载数据会输出到标准输出。
如果输出的文件是一个多级目录的话,则要配合--create-dirs选项,--create-dirs将自动创建设置的输出目录。
如果希望保存到本地的文件名和服务器上的相同,就可以直接用-O选项(大写O),而省去指定本地文件名。
如果下载多个数据文件,可以使用上面提到的多URL规则。下载文件名也可以批量自定义,就是使用"#"。可以将"#"加到文件名当中,这样实际文件名中的#将被多个URL中的当前字符串代替,如 curl http://{site,host}.host[1-5].com -o "#1_#2",#1将被"site"或"host"代替,#2将被1-5之间的数字代替,也就是被当前被处理的URL中的字符串代替。
另外下载数据的时候,可以加个"-#"选项,用一个进度条来代替文本表示进度。
2、-c/--cookie-jar <file name> 和-b/--cookie <name=data>
这是两个操作cookie的选项,很多服务器是需要cookie信息的。用前一个选项可以指定一个文件,将其他文件中的cookie或者从服务器得到的 cookie写到文件中;后一个选项则用来向服务器发送cookie信息,可以用"name=data"的形式,也可以直接跟一个保存cookie的文件名。
3、-x/--proxy <proxyhost[:port]>
该选项为http指定代理及端口,如果不指定端口,默认为1080。如 curl-x 201.36.208.19:3128 http://curl.haxx.se/。
4、-u/--user <user:password> 和-U/--proxy-user <user:password>
登录某些页面或ftp需要先进行认证,输入用户名和密码。curl的这个选项可以直接处理这类操作,用指定的账号和密码进行登录认证。
后面的选项指定代理的用户名和密码,这样便可以直接用这个代理访问网页了,如 curl -U user:password -x201.36.208.19:3128 http://curl.haxx.se/。
5、-A/--user-agent <agent string>
该选项可以指定客户端类型,服务器通过该选项判断用户应用的平台及浏览器信息。如 curl -A "Mozilla/4.0 (compatible;MSIE 6.0; Windows NT 5.0)" http://www.clientinfo.com,
表示告诉服务器,客户端是运行在Windows2000系统上的IE6.0。
6、-d/--data <data>
该选项用来以POST方式向http服务器发送特定数据,最常用的就是提交表单。
如 curl -d "user=username&password=111" http://www.login.com,表示用账号username和密码111向站点发送登录申请。其中多个数据段可以用"&"进行连接一起发送;
如果数据前面加上符号"@",则数据来源为后面指定的文件,如 curl -d password=@D:\pw.txt http://www.login.com。
7、-C/--continue-at <offset>
改选项提供断点续传功能,与-o选项配合使用。如 curl -c -O http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3。如果指定offset,则从offset的位置开始续传。
如果未指定offset,或者直接用"-C-",则curl会自己分析该从什么位置开始续传。
8、-r/--range <range>
该选项指定下载字节的范围,常应用于分块下载文件。range的表示方式有多种,如100-500,则指定从100开始的400个字节数据;-500表示最后的500个字节;5000-表示从第5000个字节开始的所有字节;另外还可以同时指定多个字节块,中间用","分开。如
[root@kaibin ~]# curl -r 0-1024000 -o new_divide_1.tar.gz http://archive.ipython.org/release/1.2.1/ipython-1.2.1.tar.gz % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 100 1000k 100 1000k 0 0 8506 0 0:02:00 0:02:00 --:--:-- 7644 [root@kaibin ~]# curl -r 1024001-2048000 -o new_divide_2.tar.gz http://archive.ipython.org/release/1.2.1/ipython-1.2.1.tar.gz % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 100 1000k 100 1000k 0 0 9515 0 0:01:47 0:01:47 --:--:-- 10332 [root@kaibin ~]# curl -r 2048001- -o new_divide_3.tar.gz http://archive.ipython.org/release/1.2.1/ipython-1.2.1.tar.gz % Total % Received % Xferd Average Speed Time Time Time Current Dload Upload Total Spent Left Speed 97 6463k 97 6298k 0 0 6946 0 0:15:52 0:15:28 0:00:24 3967 [root@kaibin ~]# ll new_divide_* -rw-r--r--. 1 root root 1024001 1月 9 04:16 new_divide_1.tar.gz -rw-r--r--. 1 root root 1024000 1月 9 04:18 new_divide_2.tar.gz -rw-r--r--. 1 root root 6449473 1月 9 04:34 new_divide_3.tar.gz 合并文件: [root@kaibin ~]# cat new_divide_* > ipython-1.2.1.tar.gz
curl -r 0-1024000 -o new_divide_1.mp3 http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3&
curl -r 1024001-2048000 -o new_divide_2.mp3 http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3&
curl -r 2048001- -o new_divide_3.mp3 http://vfile.home.news.cn/music/public/vd05/200905/31/a8/MUfs052009053117155750a8be70.mp3
这样就会将目标mp3文件分块下载为3个文件,然后可以用dos的copy命令:copy new_divide_1.mp3/b +new_divide_2.mp3/b + new_divide_3.mp3/b new_divide.mp3即可将3个分块文件合并为一个完整的mp3文件。
9、-w/--write-out <format>
该选项格式化输出一些用户操作的数据信息,用到的格式化输出符除了"\n","\r","\t"这些常见转义符外,还包括"@"和"%"。其中"@filename"表示输出filename文件中的数据,"@-"表示输出用户写入标准输入的数据;"%"标识符后面跟上定义的关键字,则可以输出对应的curl数据,常用的关键字有:
http_code ―― 上次操作返回的响应码;
time_total ―― 上次操作耗时,单位为秒;
time_connect ―― TCP连接远程主机的耗时,单位为秒;
time_pretransfer ―― 文件真正开始传输之前交互耗时,单位为秒,可能主要包括一些命令处理和协议分析的耗时;
time_starttransfer ―― 文件的第一个字节开始传输之前的耗时,单位为秒,包括time_pretransfer和服务器计算结果的时间;
size_download ―― 下载的总字节数;
size_upload ―― 上传的总字节数;
size_request ―― 发送http请求的总字节数;
speed_download ―― curl成功下载的平均下载速度;
speed_upload ―― curl成功上传的平均上传速度;
举例:curl -o page.html -s -w%{time_connect}:%{time_starttransfer}:%{time_total} http://curl.haxx.se/,其中-s表示安静模式,即略去所有状态信息。
10、--connect-timeout <seconds> 和-m/--max-time <seconds>
前者表示允许的连接的最长耗时,单位为秒;后者表示允许的整个操作的最长耗时,单位为秒,这个选项对于控制一个批处理操作的时长非常有用。
11、--limit-rate <speed> 、-Y/--speed-limit <speed> 和-y/--speed-time <time>
--limit-rate <speed>指定最大的数据传输率,单位为bytes/s,也可以用'k'或'K'表示kb/s,'m'或'M'表示mb/s,'g'或 'G'表示gb/s,所给的speed为平均传输率,短时间峰值可能会超过此值;
-Y/--speed-limit <speed>指定最小传输率,单位为bytes/s,如果小于speed值,则传输中止,如此时-y选项没有被设置,默认time为 30;-y/--speed-time <time>指定-Y选项的有效时间段,如果-Y选项没有被设置,默认为1。
12、--max-filesize <bytes>
该选项指定所要下载的文件的最大长度,如果超过bytes值,则下载并不开始,curl返回退出码63。
13、--retry <num> 、 --retry-delay<seconds> 和 --retry-max-time <seconds>
当传输过程中出现错误,如超时、FTP 5xx返回码或者HTTP5xx返回码,curl会进行按照设置进行重试,这几个选项都与重试有关。--retry <num>设置重试次数,--retry-delay<seconds>设置两次重试的间隔时间,--retry-max-time <seconds>设置两次重试间隔的最长时间。默认情况下,curl不进行重试;如果重试,第一次间隔1秒,之后每次都间隔上一次的2倍时间,直到间隔时间达到10分钟,之后的重试都将采用10分钟间隔。如果这3个选项的值被重新设置,则执行设置值。
14、-T/--upload-file <file>
该选项是上传命令,如向http服务器上传一个文件:curl -T D:\new_divide.mp3 http://www.uploadserver.com/path/;向一个ftp服务器上传文件:curl -T D:\new_divide.mp3 -uuser:password ftp://upload_site:port/path/。
curl定义了一组"EXIT CODES",用来标识在出现错误时的相关信息,目前范围从1-83,具体信息可以查阅curl库自带的文档。这些退出码对于我们分析错误及原因有很大帮助。
15.查看出口的外网IP地址
[root@kaibin ~]# curl ifconfig.me 123.112.108.205