在Linux中curl是一个利用URL规则在命令行下工作的文件传输工具,可以说是一款很强大的http命令行工具,习惯称url为下载工具。
用Web和FTP协议传输文件时,URL应用客户端(curl命令)的功能与wget相近。不过,curl命令还能使用其他流行的协议传输文件,具体包括SSH协议(SCP和SFTP)、LDAP、DICT、Telnet和文件。和wget支持大文件和递归下载不同,curl专为单步文件传输(single—shotfiletransfer)打造。
curl命令的用途广泛,诸如下载、发送各种HTTP请求、指定HTTP头部都不在话下。支持包括HTTP、HTTPS 、FTP 在内的众多协议。它还支持POST、cookie 、认证、从指定偏移处下载部分文件、参照页(referer )、用户代理字符串、扩展头部、限速、文件大小限制、进度条等特性。用法格式
curl[option] URL
基本用法:
无选项参数
[NSOS1.1 ~]# curl www.baidu.com #将URL首页html打印出来,默认打印到STDOUT中
当我们不加任何选项使用 curl 时,默认会发送 GET 请求将下载的文件输出到终端(所下载的数据被写入stdout)。
-i选项
下载的文件和响应头信息同时打印到stdout。
-I 选项
打印响应头部信息,只打印响应头部(response header)有助于进行各种检查或统计。例如,如果要检查某个页面是否能够打开,并不需要下载整个页面内容。只用读取HTTP响应头部就能够知道这个页面是否可用。
通过-I或--head 就可以只打印HTTP头部信息,而无须下载远程文件。
[root@localhost~]# curl -I www.baidu.com
HTTP/1.1200 OK
Accept-Ranges:bytes
Cache-Control:private, no-cache, no-store, proxy-revalidate, no-transform
Connection:Keep-Alive
Content-Length:277
Content-Type:text/html
Date:Mon, 15 Jul 2019 05:22:05 GMT
Etag:"575e1f60-115"
Last-Modified:Mon, 13 Jun 2016 02:50:08 GMT
Pragma:no-cache
Server:bfe/1.0.8.18
-k选项
允许不使用证书到SSL站点
[NSOS
1.1 ~]# curl -k https://10.203.10.39 #将URL首页html打印出来,默认打印到STDOUT中
-O选项
使用URL中默认的文件名保存文件到本地,如果不将网页或文件写入stdout,就要使用-O选项将其写入和URL中所指定的文件名称相同的文件中。
如果在URL中找不到文件名,则会产生错误,因此要确保URL 指向的是远程文件。如
[root@localhost~]# curl -k -O www.baidu.com
curl:Remote file name has no length!
[root@localhost~]# curl -Ohttp://swf.ishare.down.sina.com.cn/7edhKNThu1.jpg #下载的文件命名为7edhKNThu1.jpg
% Total % Received % Xferd AverageSpeed Time Time Time Current
Dload Upload Total Spent Left Speed
100 265 0 265 0 0 911 0 --:--:-- --:--:-- --:--:-- 913
我们也可以使用-o选项来手动指定文件名。
-o选项
将文件保存为命令行中指定的文件名的文件中
[NSOS1.1 ~]# curl -k -o 88.html www.baidu.com #URL首页html文件保存在执行curl命令所在的路径下
-H 选项
自定义请求头信息,当我们需要传递特定的header 的时候,可以仿照以下命令来写:
curl -H “Referer: www.example.com” -H
“User-Agent: Custom-User-Agent” http://www.baidu.com
-D选项
保存http的response里面的header信息
[NSOS
1.1 ~]# curl -k -D resheader.txt https://10.203.10.88
[NSOS1.1 ~]# cat resheader.txt
HTTP/1.1200 OK
Date:Wed, 02 Mar 2016 08:49:59 GMT
Server:Apache
Set-Cookie:PHPSESSID=qofetdbqlev0dbhlv9p16sefv7; path=/; HttpOnly
Content-Length:5060
Connection:close
Content-Type:text/html; charset=UTF-8
-c选项
保存http的response里面的cookie信息
[NSOS1.1 ~]# curl -k -c 88.cookie https://10.203.10.88
-m选项
设置最大传输时间
-E
客户端证书文件和密码 (SSL)
限定带宽
如果带宽有限,又有多个用户共享,为了平稳流畅地分享带宽,我们可以用--limit-rate
限制cURL的下载速度:
$ curlURL --limit-rate 20k
在命令中用k(千字节)和m (兆字节)指定下载速度限制。
认证
可以用cURL的选项 -u完成HTTP或FTP 认证。 -u username:password可用来指定用户名和密码。它也可以不指定密码,而在后续的执行过程中按照提示输入密码。例如:
$ curl-u user:pass http://test_auth.com
-d选项
可以很容易使用-d选项模拟发送POST请求并读取网站的响应(HTML 格式)
$ curl-d "postvar=postdata2&postvar2=postdata2" URL
-d表示以POST 方式提交用户数据。-d参数的内容应该以引用的形式给出。否则,& 会被shell 解读为该命令需要作为后台进程运行。
-X
curl 默认的 HTTP 动词是 GET,使用 -X 参数可以支持其他动词。如head
[root@localhostnewtest]# curl -I -X HEAD"www.baidu.com"
HTTP/1.1200 OK
Accept-Ranges:bytes
Cache-Control:private, no-cache, no-store, proxy-revalidate, no-transform
Connection:Keep-Alive
Content-Length:277
Content-Type:text/html
Date:Wed, 17 Jul 2019 01:53:39 GMT
Etag:"575e1f60-115"
Last-Modified:Mon, 13 Jun 2016 02:50:08 GMT
Pragma:no-cache
Server:bfe/1.0.8.18
-L
允许URL重定向,如果直接使用 curl 打开某些需要被重定向后的URL,这种情况下就无法获取我们想要的网页内容。例如:
[root@localhost~]# curl http://codebelief.com
301Moved Permanently
301Moved Permanently
nginx/1.15.6
[root@localhost~]#
而当我们通过浏览器打开该链接时,会自动跳转到http://www.codebelief.com。此时我们想要 curl 做的,就是像浏览器一样跟随链接的跳转,获取最终的网页内容。我们可以在命令中添加 -L 选项来跟随链接重定向:
curl-L http://codebelief.com
这样我们就能获取到经过重定向后的网页内容了。
-c\-b选项
有些网站是使用cookie来记录session信息。对于chrome这样的浏览器,可以轻易处理cookie信息,在curl中只要增加相关参数也是可以很容易的处理cookie的。如保存http的response里面的cookie信息,使用内置option:-c(小写)
curl-c cookiec.txt http://www.linux.com
执行后cookie信息就被存到了cookiec.txt里面了。
很多网站都是通过监视你的cookie信息来判断你是否按规矩访问他们的网站的,因此我们需要使用保存的cookie信息。内置option: -b
curl
-b cookiec.txt http://www.linux.com