您的位置:首页 > 其它

curl 命令使用

2013-02-19 10:46 274 查看
http://www.moonhack.org/post-46.html

1)初体验

curl http://www.yahoo.com
回车之后,www.yahoo.com 的html就稀里哗啦地显示在屏幕上了~

2)保存页面

curl http://www.yahoo.com > page.html

或者用curl的内置option,存下http的结果

curl -o page.html http://www.yahoo.com
3)如果需要proxy代理

curl -x 123.45.67.89:1080 -o page.html http://www.yahoo.com
4)处理cookie信息

option: -D <– 这个是把http的response里面的cookie信息存到一个特别的文档中去

curl -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.yahoo.com
5)下一次访问的时候,如何继续使用上次留下的cookie信息呢?要知道,很多网站都是靠监控您的cookie信息,来判断您是不是不按规矩访问他们的网站的。

这次我们使用这个option来把上次的cookie信息追加到http request里面去: -b

curl -x 123.45.67.89:1080 -o page1.html -D cookie0002.txt -b cookie0001.txt http://www.yahoo.com
6)浏览器信息

让我们随意指定自己这次访问所宣称的自己的浏览器信息: -A

curl -A “Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)” -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.yahoo.com
这样,服务器端接到访问的需要,会认为您是个运行在Windows 2000上的IE6.0,嘿嘿嘿,其实也许您用的是苹果机呢!

而”Mozilla/4.73 [en] (X11; U; Linux 2.2; 15 i686″则能够告诉对方您是一台PC上跑着的Linux,用的是Netscape 4.73,呵呵呵

7)另外一个服务器端常用的限制方法,就是检查http访问的referer。比如您先访问首页,再访问里面所指定的下载页,这第二次访问的referer地址就是第一次访问成功后的页面地址。这样,服务器端只要发现对下载页面某次访问的referer地址不 是首页的地址,就能够断定那是个盗连了~

幸好curl给我们提供了设定referer的option: -e

curl -A “Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)” -x 123.45.67.89:1080 -e “mail.yahoo.com” -o page.html -D cookie0001.txt http://www.yahoo.com
这样,就能够骗对方的服务器,您是从mail.yahoo.com点击某个链接过来的了,呵呵呵

8)利用curl 下载文档

curl -o 1.jpg http://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG
curl -O http://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG //按照服务器上的文档名保存

curl -O http://cgi2.tky.3web.ne.jp/~zzh/screen[1-10].JPG //序列下载

curl -O http://cgi2.tky.3web.ne.jp/~/[001-201].JPG
curl -o #2_#1.jpg http://cgi2.tky.3web.ne.jp/~/[001-201].JPG //自定义文档名的下载

#1是变量,指的是这部分,第一次取值zzh,第二次取值nick

#2代表的变量,则是第二段可变部分—[001-201],取值从001逐一加到201

这样,自定义出来下载下来的文档名,就变成了这样:

原来: ~zzh/001.JPG —> 下载后: 001-zzh.JPG

原来: ~nick/001.JPG —> 下载后: 001-nick.JPG

这样一来,就不怕文档重名啦,呵呵

9)断点续传

curl -c -O http://cgi2.tky.3wb.ne.jp/~zzh/screen1.JPG
10)分块下载 -r

比如我们有一个http://cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 要下载(赵老师的电话朗诵 

 )

我们就能够用这样的命令:

curl -r 0-10240 -o “zhao.part1″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &\

curl -r 10241-20480 -o “zhao.part2″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &\

curl -r 20481-40960 -o “zhao.part3″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &\

curl -r 40961- -o “zhao.part4″ http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3

这样就能够分块下载啦。

但是您需要自己把这些破碎的文档合并起来

假如您用UNIX或苹果,用 cat zhao.part* > zhao.mp3就能够

假如用的是Windows,用copy /b 来解决吧

上面讲的都是http协议的下载,其实ftp也相同能够用。

用法:

curl -u name:passwd ftp://ip:port/path/file


curl ftp://name:passwd@ip:port/path/file
11)上传 -T

比如我们向ftp传一个文档:

curl -T localfile -u name:passwd ftp://upload_site:port/path/
当然,向http服务器上传文档也能够

curl -T localfile http://cgi2.tky.3web.ne.jp/~zzh/abc.cgi
注意,这时候,使用的协议是HTTP的PUT method

http提交一个表单,比较常用的是POST模式和GET模式

GET模式什么option都不用,只需要把变量写在url里面就能够了

比如:

curl http://www.yahoo.com/login.cgi?user=nickwolfe&password=12345
POST模式的option则是 -d

比如:

curl -d “user=nickwolfe&password=12345″ http://www.yahoo.com/login.cgi
就相当于向这个站点发出一次登陆申请~~~~~

到底该用GET模式还是POST模式,要看对面服务器的程式设定。

一点需要注意的是,POST模式下的文档上传,比如

<form method=”POST” enctype=”multipar/form-data” action=”http://cgi2.tky.3web.ne.jp/~zzh/up_file.cgi”>

<input type=file name=upload>

<input type=submit name=nick value=”go”>

</form>

这样一个HTTP表单,我们要用curl进行模拟,就该是这样的语法:

curl -F upload=@localfile -F nick=go http://cgi2.tky.3web.ne.jp/~zzh/up_file.cgi
12)https的时候使用本地证书

curl -E localcert.pem https://remote_server
13)用curl通过dict协议去查字典~~~~~

curl dict://dict.org/d:computer
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: