linux 下载 命令 wget 和 curl

 

From:http://www.jb51.net/LINUXjishu/86326.html
From :Linux curl 命令详解 - http://www.cnblogs.com/duhuo/p/5695256.html

Linux curl 命令参数详解:http://www.aiezu.com/system/linux/linux_curl_syntax.html
Linux下使用 curl :http://www.cnblogs.com/xd502djj/archive/2012/06/12/2546737.html

Linux curl 命令详解:http://www.linuxdiyf.com/linux/2800.html

 

 

 

wget 和 curl

 

curl  和  wget  基础功能有诸多重叠,如 下载 等。

wget 和 cURL 都可以下载内容。它们的核心就是这么设计的。它们都可以向互联网发送请求并返回请求项。这可以是文件、图片或者是其他诸如网站的原始 HTML 之类。

这两个程序都可以进行 HTTP POST 请求。这意味着它们都可以向网站发送数据,比如说填充表单什么的。

由于这两者都是命令行工具,它们都被设计成可脚本化。wget 和 cURL 都可以写进你的 Bash 脚本 ,自动与新内容交互,下载所需内容。

 

curl wget 区别:

  • 1. curl 是 libcurl 这个库支持的,wget 是一个纯粹的命令行命令。
  • 2. curl 在指定要下载的链接时能够支持 URL 的序列或集合,而 wget 则不能这样;
  • 3. wget 支持 递归下载,而 curl 则没有这个功能。
  • 4. curl 由于可自定义各种请求参数,所以在 模拟 web 请求 方面更擅长;cURL是一个多功能工具。当然,它可以下载网络内容,但同时它也能做更多别的事情。cURL 技术支持库是:libcurl。这就意味着你可以基于 cURL 编写整个程序,允许你基于 libcurl 库中编写图形环境的下载程序,访问它所有的功能。cURL 宽泛的网络协议支持可能是其最大的卖点。cURL 支持访问 HTTP 和 HTTPS 协议,能够处理 FTP 传输。它支持 LDAP 协议,甚至支持 Samba 分享。实际上,你还可以用 cURL 收发邮件。cURL 也有一些简洁的安全特性。cURL 支持安装许多 SSL/TLS 库,也支持通过网络代理访问,包括 SOCKS。这意味着,你可以越过 Tor 来使用cURL。cURL 同样支持让数据发送变得更容易的 gzip 压缩技术。
  • 5. wget 由于支持 ftp 和 Recursive(递归)下载, 所以在下载文件方面更擅长。wget 简单直接。这意味着你能享受它超凡的下载速度。wget 是一个独立的程序,无需额外的资源库,更不会做其范畴之外的事情。wget 是专业的直接下载程序,支持递归下载。同时,它也允许你下载网页中或是 FTP 目录中的任何内容。wget 拥有智能的默认设置。它规定了很多在常规浏览器里的事物处理方式,比如 cookies 和重定向,这都不需要额外的配置。可以说,wget 简直就是无需说明,开罐即食!

类比的话,可以把 curl 看做是一个精简的命令行网页浏览器。它支持几乎你能想到的所有协议,curl 宽泛的网络协议支持可能是其最大的卖点(curl支持更多的协议。curl supports FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, LDAP, LDAPS, FILE, POP3, IMAP, SMTP and RTSP at the time of this writing. Wget supports HTTP, HTTPS and FTP.)。curl 支持访问 HTTP 和 HTTPS 协议,能够处理 FTP 传输。它支持 LDAP 协议,甚至支持 Samba 分享。实际上,你还可以用 cURL 收发邮件。curl 可以交互访问几乎所有在线内容。唯一和浏览器不同的是,curl 不会渲染接收到的相应信息。
而 wget 可以看做是 迅雷9 。

那你应该使用 cURL 还是使用 wget?

这个比较得看实际用途。如果你想快速下载并且没有担心参数标识的需求,那你应该使用轻便有效的 wget。如果你想做一些更复杂的使用,直觉告诉你,你应该选择 cRUL。

 

curl 与 wget 高级用法https://jingyan.baidu.com/article/eb9f7b6d63f092869264e856.html

 

 

wget 命令

 

wget 是在 Linux 下开发的开放源代码的软件,作者是Hrvoje Niksic,后来被移植到包括 Windows 在内的各个平台上wget 是一个下载文件的工具,它用在命令行下。对于 Linux 用户是必不可少的工具,尤其对于网络管理员,经常要下载一些软件或从远程服务器恢复备份到本地服务器。

wget 工具体积小但功能完善,它支持断点下载功能,同时支持 FTP 和 HTTP下载方式,支持代理服务器和设置起来方便简单。

它有以下功能和特点:

  • (1)支持断点下传功能;这一点,也是网络蚂蚁和FlashGet当年最大的卖点,现在,Wget也可以使用此功能,那些网络不是太好的用户可以放心了;
  • (2)同时支持FTP和HTTP下载方式;尽管现在大部分软件可以使用HTTP方式下载,但是,有些时候,仍然需要使用FTP方式下载软件;
  • (3)支持代理服务器;对安全强度很高的系统而言,一般不会将自己的系统直接暴露在互联网上,所以,支持代理是下载软件必须有的功能;
  • (4)设置方便简单;可能,习惯图形界面的用户已经不是太习惯命令行了,但是,命令行在设置上其实有更多的优点,最少,鼠标可以少点很多次,也不要担心是否错点鼠标;
  • (5)程序小,完全免费;程序小可以考虑不计,因为现在的硬盘实在太大了;完全免费就不得不考虑了,即使网络上有很多免费软件,但是,这些软件的广告不是我们喜欢的;

 

 

wget 参数

 

更多参数:man wget

wget -h   或者  wget --help

命令格式: 
wget [参数列表] [目标软件、网页的网址]             //  用法: wget [选项]... [URL]...长选项所必须的参数在使用短选项时也是必须的。启动:-V,  --version                   显示 Wget 的版本信息并退出-h,  --help                      打印此帮助-b,  --background                启动后转入后台-e,  --execute=命令              运行一个“.wgetrc”风格的命令日志和输入文件:-o,  --output-file=文件          将日志信息写入 FILE-a,  --append-output=文件        将信息添加至 FILE-d,  --debug                     打印大量调试信息-q,  --quiet                     安静模式 (无信息输出)-v,  --verbose                   详尽的输出 (此为默认值)-nv, --no-verbose                关闭详尽输出,但不进入安静模式--report-speed=类型         以 <类型> 报告带宽。类型可以是 bits-i,  --input-file=文件           下载本地或外部 <文件> 中的 URL-F,  --force-html                把输入文件当成 HTML 文件-B,  --base=URL                  解析相对于 URL 的 HTML 输入文件链接 (-i -F)--config=文件               指定要使用的配置文件--no-cookies                不读取任何配置文件--rejected-log=文件         将拒绝 URL 的原因写入 <文件>。下载:-t,  --tries=数字                设置重试次数为 <数字> (0 代表无限制)--retry-connrefused         即使拒绝连接也是重试-O,  --output-document=文件      将文档写入 FILE-nc, --no-clobber                不要下载已存在将被覆盖的文件-c,  --continue                  断点续传下载文件--start-pos=偏移量          从由零计数的 <偏移量> 开始下载--progress=类型             选择进度条类型--show-progress             在任意啰嗦状态下都显示进度条-N,  --timestamping              只获取比本地文件新的文件--no-if-modified-since      不要在时间戳 (timestamping) 模式下使用if-modified-since get 条件请求--no-use-server-timestamps  don't set the local file's timestamp bythe one on the server-S,  --server-response           打印服务器响应--spider                    不下载任何文件-T,  --timeout=SECONDS           将所有超时设为 SECONDS 秒--dns-timeout=SECS          设置 DNS 查寻超时为 SECS 秒--connect-timeout=SECS      设置连接超时为 SECS 秒--read-timeout=SECS         设置读取超时为 SECS 秒-w,  --wait=SECONDS              等待间隔为 SECONDS 秒--waitretry=SECONDS         在获取文件的重试期间等待 1..SECONDS 秒--random-wait               获取多个文件时,每次随机等待间隔 (0.5~1.5)*WAIT 秒--no-proxy                  禁止使用代理-Q,  --quota=数字                设置获取配额为 <数字> 字节--bind-address=ADDRESS      绑定至本地主机上的 ADDRESS (主机名或是 IP)--limit-rate=RATE           限制下载速率为 RATE--no-dns-cache              关闭 DNS 查询缓存--restrict-file-names=系统  限定文件名中的字符为 <系统> 允许的字符--ignore-case               匹配文件/目录时忽略大小写-4,  --inet4-only                仅连接至 IPv4 地址-6,  --inet6-only                仅连接至 IPv6 地址--prefer-family=地址族      首先连接至指定家族(IPv6,IPv4 或 none)的地址--user=用户                 将 ftp 和 http 的用户名均设置为 <用户>--password=密码             将 ftp 和 http 的密码均设置为 <密码>--ask-password              提示输入密码--no-iri                    关闭 IRI 支持--local-encoding=ENC        使用 ENC 作为 IRI (国际化资源标识符) 的本地编码--remote-encoding=ENC       使用 ENC 作为默认远程编码--unlink                    覆盖前移除文件目录:-nd, --no-directories            不创建目录-x,  --force-directories         强制创建目录-nH, --no-host-directories       不要创建主 (host) 目录--protocol-directories      在目录中使用协议名称-P,  --directory-prefix=前缀     保存文件到 <前缀>/..--cut-dirs=数字             忽略远程目录中 <数字> 个目录层。HTTP 选项:--http-user=用户            设置 http 用户名为 <用户>--http-password=密码        设置 http 密码为 <密码>--no-cache                  不使用服务器缓存的数据。--default-page=NAME         改变默认页 (通常是“index.html”)。-E,  --adjust-extension          以合适的扩展名保存 HTML/CSS 文档--ignore-length             忽略头部的‘Content-Length’区域--header=字符串             在头部插入 <字符串>--max-redirect              每页所允许的最大重定向--proxy-user=用户           使用 <用户> 作为代理用户名--proxy-password=密码       使用 <密码> 作为代理密码--referer=URL               在 HTTP 请求头包含‘Referer: URL’--save-headers              将 HTTP 头保存至文件。-U,  --user-agent=代理           标识自己为 <代理> 而不是 Wget/VERSION。--no-http-keep-alive        禁用 HTTP keep-alive (持久连接)。--no-cookies                不使用 cookies。--load-cookies=文件         会话开始前从 <文件> 中载入 cookies。--save-cookies=文件         会话结束后保存 cookies 至 FILE。--keep-session-cookies      载入并保存会话 (非永久) cookies。--post-data=字符串          使用 POST 方式;把 <字串>作为数据发送。--post-file=文件            使用 POST 方式;发送 <文件> 内容。--method=HTTP方法           在请求中使用指定的 <HTTP 方法>。--post-data=字符串          把 <字串> 作为数据发送,必须设置 --method--post-file=文件            发送 <文件> 内容,必须设置 --method--content-disposition       当选择本地文件名时允许 Content-Disposition头部 (实验中)。--content-on-error          在服务器错误时输出接收到的内容--auth-no-challenge         不先等待服务器询问就发送基本 HTTP 验证信息。HTTPS (SSL/TLS) 选项:--secure-protocol=PR         选择安全协议,可以是 auto、SSLv2、SSLv3、TLSv1、PFS 中的一个。--https-only                 只跟随安全的 HTTPS 链接--no-check-certificate       不要验证服务器的证书。--certificate=文件           客户端证书文件。--certificate-type=类型      客户端证书类型,PEM 或 DER。--private-key=文件           私钥文件。--private-key-type=类型      私钥文件类型,PEM 或 DER。--ca-certificate=文件        带有一组 CA 证书的文件。--ca-directory=DIR           保存 CA 证书的哈希列表的目录。--ca-certificate=文件        带有一组 CA 证书的文件。--pinnedpubkey=FILE/HASHES  Public key (PEM/DER) file, or any numberof base64 encoded sha256 hashes preceded by'sha256//' and seperated by ';', to verifypeer againstHSTS 选项:--no-hsts                   禁用 HSTS--hsts-file                 HSTS 数据库路径(将覆盖默认值)FTP 选项:--ftp-user=用户             设置 ftp 用户名为 <用户>。--ftp-password=密码         设置 ftp 密码为 <密码>--no-remove-listing         不要删除‘.listing’文件--no-glob                   不在 FTP 文件名中使用通配符展开--no-passive-ftp            禁用“passive”传输模式--preserve-permissions      保留远程文件的权限--retr-symlinks             递归目录时,获取链接的文件 (而非目录)FTPS 选项:--ftps-implicit                 使用隐式 FTPS(默认端口 990)--ftps-resume-ssl               打开数据连接时继续控制连接中的 SSL/TLS 会话--ftps-clear-data-connection    只加密控制信道;数据传输使用明文--ftps-fallback-to-ftp          回落到 FTP,如果目标服务器不支持 FTPS
WARC 选项:--warc-file=文件名          在一个 .warc.gz 文件里保持请求/响应数据--warc-header=字符串        在头部插入 <字符串>--warc-max-size=数字        将 WARC 的最大尺寸设置为 <数字>--warc-cdx                  写入 CDX 索引文件--warc-dedup=文件名         不要记录列在此 CDX 文件内的记录--no-warc-compression       不要 GZIP 压缩 WARC 文件--no-warc-digests           不要计算 SHA1 摘要--no-warc-keep-log          不要在 WARC 记录中存储日志文件--warc-tempdir=目录         WARC 写入器的临时文件目录递归下载:-r,  --recursive                 指定递归下载-l,  --level=数字                最大递归深度 (inf 或 0 代表无限制,即全部下载)。--delete-after             下载完成后删除本地文件-k,  --convert-links            让下载得到的 HTML 或 CSS 中的链接指向本地文件--convert-file-only         convert the file part of the URLs only (usually known as the basename)--backups=N                 写入文件 X 前,轮换移动最多 N 个备份文件-K,  --backup-converted         在转换文件 X 前先将它备份为 X.orig。-m,  --mirror                   -N -r -l inf --no-remove-listing 的缩写形式。-p,  --page-requisites          下载所有用于显示 HTML 页面的图片之类的元素。--strict-comments          用严格方式 (SGML) 处理 HTML 注释。递归接受/拒绝:-A,  --accept=列表               逗号分隔的可接受的扩展名列表-R,  --reject=列表               逗号分隔的要拒绝的扩展名列表--accept-regex=REGEX        匹配接受的 URL 的正则表达式--reject-regex=REGEX        匹配拒绝的 URL 的正则表达式--regex-type=类型           正则类型 (posix|pcre)-D,  --domains=列表              逗号分隔的可接受的域名列表--exclude-domains=列表      逗号分隔的要拒绝的域名列表--follow-ftp                跟踪 HTML 文档中的 FTP 链接--follow-tags=列表          逗号分隔的跟踪的 HTML 标识列表--ignore-tags=列表          逗号分隔的忽略的 HTML 标识列表-H,  --span-hosts                递归时转向外部主机-L,  --relative                  仅跟踪相对链接-I,  --include-directories=列表  允许目录的列表--trust-server-names        使用重定向 URL 的最后一段作为本地文件名-X,  --exclude-directories=列表  排除目录的列表-np, --no-parent                 不追溯至父目录

 

 

wget 使用示例

 

wget 虽然功能强大,但是使用起来还是比较简单的,基本的语法是:wget [参数列表] URL
下面就结合具体的例子来说明一下wget的用法。

 

1、使用 wget 下载单个文件 

以下的例子是从网络下载一个文件并保存在当前目录 
wget http://cn.wordpress.org/wordpress-3.1-zh_CN.zip 
在下载的过程中会显示进度条,包含(下载完成百分比,已经下载的字节,当前下载速度,剩余下载时间)。 

 

2、使用 wget -O 下载并以不同的文件名保存

wget默认会以最后一个符合”/”的后面的字符来命令,对于动态链接的下载通常文件名会不正确。 
错误:下面的例子会下载一个文件并以名称download.php?id=1080保存 wget http://www.centos.bz/download?id=1 
即使下载的文件是zip格式,它仍然以download.php?id=1080命令。 
正确:为了解决这个问题,我们可以使用参数-O来指定一个文件名: wget -O wordpress.zip http://www.centos.bz/download.php?id=1080 

 

3、使用 wget --limit -rate 限速下载

当你执行wget的时候,它默认会占用全部可能的宽带下载。但是当你准备下载一个大文件,而你还需要下载其它文件时就有必要限速了。 wget –limit-rate=300k http://cn.wordpress.org/wordpress-3.1-zh_CN.zip 

 

4、使用 wget -c 断点续传

当文件特别大或者网络特别慢的时候,往往一个文件还没有下载完,连接就已经被切断,此时就需要断点续传。
wget的断点续传是自动的,只需要使用 -c 参数。使用断点续传要求服务器支持断点续传。
例如: wget -c http://the.url.of/incomplete/file 
-t 参数表示重试次数,例如需要重试100次,那么就写-t 100,如果设成-t 0,那么表示无穷次重试,直到连接成功。
-T 参数表示超时等待时间,例如-T 120,表示等待120秒连接不上就算超时。 

 

 

5、使用 wget -b 后台下载

对于下载非常大的文件的时候,我们可以使用参数-b进行后台下载。 wget -b http://cn.wordpress.org/wordpress-3.1-zh_CN.zip 
Continuing in background, pid 1840. 
Output will be written to `wget-log’. 
你可以使用以下命令来察看下载进度 tail -f wget-log 

 

6、使用代理服务器(proxy) 和 伪装代理(user-agent)名称下载

 

如果用户的网络需要经过代理服务器,那么可以让 wget 通过代理服务器进行文件的下载。
此时需要在当前用户的目录下创建一个 .wgetrc 文件。

文件中可以设置代理服务器:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
分别表示http的代理服务器和ftp的代理服务器。

如果代理服务器需要密码,则使用这两个参数:
–proxy-user=USER      设置代理用户
–proxy-passwd=PASS    设置代理密码

使用参数 –proxy=on/off 使用或者关闭代理。

 

有些网站能通过根据判断代理名称不是浏览器而拒绝你的下载请求。不过你可以通过 --user-agent 参数伪装。
wget --user-agent=”Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16″ 下载链接

wget 还有很多有用的功能,需要用户去挖掘。

 

 

7、使用 wget --spider 测试下载链接

当你打算进行定时下载,你应该在预定时间测试下载链接是否有效。我们可以增加–spider参数进行检查。 wget –spider URL 
如果下载链接正确,将会显示 wget –spider URL 
Spider mode enabled. Check if remote file exists. 
HTTP request sent, awaiting response… 200 OK 
Length: unspecified [text/html] 
Remote file exists and could contain further links, 
but recursion is disabled — not retrieving. 
这保证了下载能在预定的时间进行,但当你给错了一个链接,将会显示如下错误 wget –spider url 
Spider mode enabled. Check if remote file exists. 
HTTP request sent, awaiting response… 404 Not Found 
Remote file does not exist — broken link!!! 
你可以在以下几种情况下使用spider参数: 定时下载之前进行检查 
间隔检测网站是否可用 
检查网站页面的死链接 

 

8、使用 wget --tries 增加重试次数

如果网络有问题或下载一个大文件也有可能失败。wget默认重试20次连接下载文件。如果需要,你可以使用–tries增加重试次数。 wget –tries=40 URL 

 

9、使用 wget -i 下载多个文件 (批量下载)

 

如果有多个文件需要下载,那么可以生成一个文件,把每个文件的 URL 写一行。

例如,生成文件 download.txt,然后用命令:wget -i download.txt

这样就会把download.txt里面列出的每个URL都下载下来。(如果列的是文件就下载文件,如果列的是网站,那么下载首页)

首先,保存一份下载链接文件 cat > filelist.txt 
url1 
url2 
url3 
url4 
接着使用这个文件和参数-i下载 wget -i filelist.txt 

 

10、使用 wget --mirror 镜像网站

下面的例子是下载整个网站到本地。 wget –mirror -p –convert-links -P ./LOCAL URL 
–miror:开户镜像下载 
-p:下载所有为了html页面显示正常的文件 
–convert-links:下载后,转换成本地的链接 
-P ./LOCAL:保存所有文件和目录到本地指定目录 

 

11、使用 wget --reject 过滤指定格式下载

可以指定让 wget 只下载一类文件,或者不下载什么文件。例如: wget -m –reject=gif http://target.web.site/subdirectory 表示下载 http://target.web.site/subdirectory,但是忽略gif文件。–accept=LIST    可以接受的文件类型,
–reject=LIST    拒绝接受的文件类型。你想下载一个网站,但你不希望下载图片,你可以使用以下命令。 wget –reject=gif url 

 

12、使用 wget -o 把下载信息存入日志文件

你不希望下载信息直接显示在终端而是在一个日志文件,可以使用以下命令: wget -o download.log URL 

 

13、使用 wget -Q 限制总下载文件大小

当你想要下载的文件超过5M而退出下载,你可以使用以下命令: wget -Q5m -i filelist.txt 
注意:这个参数对单个文件下载不起作用,只能递归下载时才有效。 

 

14、使用 wget -r -A 下载指定格式文件

可以在以下情况使用该功能 下载一个网站的所有图片 
下载一个网站的所有视频 
下载一个网站的所有PDF文件 
wget -r -A.pdf url 

 

15、下载整个 http 或者  wget FTP 下载 

wget http://place.your.url/here 
这个命令可以将 http://place.your.url/here 首页下载下来。
使用 -x 会强制建立服务器上一模一样的目录,
如果使用 -nd 参数,那么服务器上下载的所有内容都会加到本地当前目录。 wget -r http://place.your.url/here 
这个命令会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。
这个命令一定要小心使用,因为在下载的时候,被下载网站指向的所有地址同 样会被下载,
因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来!
基于这个原因,这个参数不常用。
可以用 -l number 参数来指定下载的层次。例如只下载两层,那么使用-l 2。 要是您想制作镜像站点,那么可以使用 -m 参数,
例如:wget -m http://place.your.url/here 
这时 wget 会自动判断合适的参数来制作镜像站点。
此时,wget会登录到服务器上,读入robots.txt 并按 robots.txt的规定来执行。 使用 wget 匿名ftp 下载 
wget ftp -url 使用 wget 用户名 和 密码认证的 ftp 下载 
wget –ftp-user=USERNAME –ftp-password=PASSWORD url

 

16、密码和认证

wget 可以处理利用 用户名/密码 方式限制访问的网站,可以利用两个参数:
       --http-user=用户                设置 http 用户名为 <用户>
       --http-password=密码        设置 http 密码为 <密码>
对于需要证书做认证的网站,就只能利用其他下载工具了,例如 curl


 

中文文件名在平常的情况下会被编码, 但是在 –cut-dirs 时又是正常的,
wget -r -np -nH –cut-dirs=3 ftp://host/test/
测试.txt
wget -r -np -nH -nd ftp://host/test/
%B4%FA%B8%D5.txt
wget “ftp://host/test/*”
%B4%FA%B8%D5.txt

由于不知名的原因,可能是为了避开特殊文件名, wget 会自动将抓取文件名的部分用 encode_string 处理过,
所以该 patch 就把被 encode_string 处理成 “%3A” 这种东西, 用 decode_string 还原成 “:”,并套用在目录与文件名称的部分,
decode_string 是 wget 内建的函式。

wget -t0 -c -nH -x -np -b -m -P /home/sunny/NOD32view/ http://downloads1.kaspersky-labs.com/bases/ -o wget.log

 

 

 

curl 命令

 

linux 的 curl  是  一个强大的 网络传输工具

linux 的 curl 是通过 url 语法 在命令行下上传或下载文件的工具软件,它支持 http、https、ftp,、ftps、telnet 等多种协议,常被用来抓取网页 和 监控Web服务器状态。

curl 命令是一个功能强大的网络工具,它能够通过 http、ftp 等方式下载文件,也能够上传文件。其实 curl 远不止前面所说的那些功能,大家可以通过 man curl 阅读手册页获取更多的信息。类似的工具还有 wget

curl 命令使用了 libcurl 库来实现,libcurl 库常用在 C程序 中用来处理 HTTP 请求,curlpp 是 libcurl 的一个 C++ 封装,这几个东西可以用在抓取网页、网络监控等方面的开发,而 curl 命令可以帮助来解决开发过程中遇到的问题。

 

 

curl 常用参数

语法:# curl [option] [url]-A/--user-agent <string>              设置用户代理发送给服务器
-b/--cookie <name=string/file>    cookie字符串或文件读取位置
-c/--cookie-jar <file>                    操作结束后把cookie写入到这个文件中
-C/--continue-at <offset>            断点续转
-d/--data/--data-ascii <data> 指定POST的内容
-D/--dump-header <file>              把header信息写入到该文件中
-e/--referer                          来源网址
-f/--fail                                          连接失败时不显示http错误
-H/--header <header> 指定请求头参数
-I/--head 仅返回头部信息,使用HEAD请求
-m/--max-time <seconds> 指定处理的最大时长
-o/--output                                  把输出写到该文件中
-O/--remote-name                      把输出写到该文件中,保留远程文件的文件名
-r/--range <range>                      检索来自HTTP/1.1或FTP服务器字节范围
-s/--silent                                    静音模式。不输出任何东西
-T/--upload-file <file> 指定上传文件路径
-u/--user <user[:password]>      设置服务器的用户和密码
-v/--verbose 小写的v参数,用于打印更多信息,包括发送的请求信息,这在调试脚本是特别有用。
-w/--write-out [format]                什么输出完成后
-x/--proxy <proxyhost[:port]> 指定代理服务器地址和端口,端口默认为1080
-#/--progress-bar                        进度条显示当前的传送状态--connect-timeout <seconds> 指定尝试连接的最大时长
--retry <num> 指定重试次数

 

 

使用示例:

 

1、基本用法

# curl http://www.linux.com

执行后,www.linux.com 的html就会显示在屏幕上了
Ps:由于安装linux的时候很多时候是没有安装桌面的,也意味着没有浏览器,因此这个方法也经常用于测试一台服务器是否可以到达一个网站

 

2、保存访问的网页

2.1:使用linux的重定向功能保存

# curl http://www.linux.com >> linux.html

2.2:可以使用curl的内置option:-o(小写)保存网页

$ curl -o linux.html http://www.linux.com

执行完成后会显示如下界面,显示100%则表示保存成功

% Total    % Received % Xferd  Average Speed  Time    Time    Time  CurrentDload  Upload  Total  Spent    Left  Speed
100 79684    0 79684    0    0  3437k      0 --:--:-- --:--:-- --:--:-- 7781k

2.3:可以使用curl的内置option:-O(大写)保存网页中的文件。

要注意这里后面的 url 要具体到某个文件,不然抓不下来

# curl -O http://www.linux.com/hello.sh

 

3、测试网页返回值

# curl -o /dev/null -s -w %{http_code} www.linux.com

Ps:在脚本中,这是很常见的测试网站是否正常的用法

 

4、指定proxy服务器以及其端口

很多时候上网需要用到代理服务器(比如是使用代理服务器上网或者因为使用curl别人网站而被别人屏蔽IP地址的时候),幸运的是curl通过使用内置option:-x来支持设置代理

# curl -x 192.168.100.100:1080 http://www.linux.com

 

5、cookie

有些网站是使用 cookie 来记录 session信息。对于 chrome 这样的浏览器,可以轻易处理 cookie 信息,但在 curl 中只要增加相关参数也是可以很容易的处理 cookie

 

5.1:保存http的response里面的cookie信息。内置option:-c(小写)

# curl -c cookiec.txt  http://www.linux.com

执行后cookie信息就被存到了cookiec.txt里面了

 

5.2:保存http的response里面的header信息。内置option: -D

# curl -D cookied.txt http://www.linux.com

执行后cookie信息就被存到了cookied.txt里面了

注意:-c(小写)产生的cookie和-D里面的cookie是不一样的。


5.3:使用cookie

很多网站都是通过监视你的cookie信息来判断你是否按规矩访问他们的网站的,因此我们需要使用保存的cookie信息。内置option: -b

# curl -b cookiec.txt http://www.linux.com

 

6、模仿浏览器

有些网站需要使用特定的浏览器去访问他们,有些还需要使用某些特定的版本。curl 内置option:-A可以让我们指定浏览器去访问网站

# curl -A "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.0)" http://www.linux.com

这样服务器端就会认为是使用IE8.0去访问的

 

7、伪造 referer(盗链)

很多服务器会检查http访问的referer从而来控制访问。比如:你是先访问首页,然后再访问首页中的邮箱页面,这里访问邮箱的referer地址就是访问首页成功后的页面地址,如果服务器发现对邮箱页面访问的referer地址不是首页的地址,就断定那是个盗连了
curl中内置option:-e可以让我们设定referer

# curl -e "www.linux.com" http://mail.linux.com

这样就会让服务器其以为你是从www.linux.com点击某个链接过来的

 

8、下载文件

 

8.1:利用curl下载文件。
#使用内置option:-o(小写)

# curl -o dodo1.jpg http:www.linux.com/dodo1.JPG

#使用内置option:-O(大写)

# curl -O http://www.linux.com/dodo1.JPG

这样就会以服务器上的名称保存文件到本地

 

8.2:循环下载

有时候下载图片可以能是前面的部分名称是一样的,就最后的尾椎名不一样

# curl -O http://www.linux.com/dodo[1-5].JPG

这样就会把dodo1,dodo2,dodo3,dodo4,dodo5全部保存下来

 

8.3:下载重命名

# curl -O http://www.linux.com/{hello,bb}/dodo[1-5].JPG

由于下载的hello与bb中的文件名都是dodo1,dodo2,dodo3,dodo4,dodo5。因此第二次下载的会把第一次下载的覆盖,这样就需要对文件进行重命名。

# curl -o #1_#2.JPG http://www.linux.com/{hello,bb}/dodo[1-5].JPG

这样在hello/dodo1.JPG的文件下载下来就会变成hello_dodo1.JPG,其他文件依此类推,从而有效的避免了文件被覆盖

 

8.4:分块下载

有时候下载的东西会比较大,这个时候我们可以分段下载。使用内置option:-r

# curl -r 0-100 -o dodo1_part1.JPG http://www.linux.com/dodo1.JPG
# curl -r 100-200 -o dodo1_part2.JPG http://www.linux.com/dodo1.JPG
# curl -r 200- -o dodo1_part3.JPG http://www.linux.com/dodo1.JPG
# cat dodo1_part* > dodo1.JPG

这样就可以查看dodo1.JPG的内容了

 

8.5:通过ftp下载文件

curl可以通过ftp下载文件,curl提供两种从ftp中下载的语法

# curl -O -u 用户名:密码 ftp://www.linux.com/dodo1.JPG
# curl -O ftp://用户名:密码@www.linux.com/dodo1.JPG

8.6:显示下载进度条

# curl -# -O http://www.linux.com/dodo1.JPG

8.7:不会显示下载进度信息

# curl -s -O http://www.linux.com/dodo1.JPG

 

9、断点续传

在 windows中,我们可以使用迅雷这样的软件进行断点续传。curl可以通过内置 option:-C 同样可以达到相同的效果
如果在下载 dodo1.JPG 的过程中突然掉线了,可以使用以下的方式续传

# curl -C -O http://www.linux.com/dodo1.JPG

 

10、上传文件

curl 不仅仅可以下载文件,还可以上传文件。通过内置 option:-T 来实现

# curl -T dodo1.JPG -u 用户名:密码 ftp://www.linux.com/img/

这样就向ftp服务器上传了文件dodo1.JPG

 

11、显示抓取错误

# curl -f http://www.linux.com/error

其他参数(此处翻译为转载):

-a/--append                        上传文件时,附加到目标文件
--anyauth                            可以使用“任何”身份验证方法
--basic                                使用HTTP基本验证
-B/--use-ascii                      使用ASCII文本传输
-d/--data <data>                  HTTP POST方式传送数据
--data-ascii <data>            以ascii的方式post数据
--data-binary <data>          以二进制的方式post数据
--negotiate                          使用HTTP身份验证
--digest                        使用数字身份验证
--disable-eprt                  禁止使用EPRT或LPRT
--disable-epsv                  禁止使用EPSV
--egd-file <file>              为随机数据(SSL)设置EGD socket路径
--tcp-nodelay                  使用TCP_NODELAY选项
-E/--cert <cert[:passwd]>      客户端证书文件和密码 (SSL)
--cert-type <type>              证书文件类型 (DER/PEM/ENG) (SSL)
--key <key>                    私钥文件名 (SSL)
--key-type <type>              私钥文件类型 (DER/PEM/ENG) (SSL)
--pass  <pass>                  私钥密码 (SSL)
--engine <eng>                  加密引擎使用 (SSL). "--engine list" for list
--cacert <file>                CA证书 (SSL)
--capath <directory>            CA目   (made using c_rehash) to verify peer against (SSL)
--ciphers <list>                SSL密码
--compressed                    要求返回是压缩的形势 (using deflate or gzip)
--connect-timeout <seconds>    设置最大请求时间
--create-dirs                  建立本地目录的目录层次结构
--crlf                          上传是把LF转变成CRLF
--ftp-create-dirs              如果远程目录不存在,创建远程目录
--ftp-method [multicwd/nocwd/singlecwd]    控制CWD的使用
--ftp-pasv                      使用 PASV/EPSV 代替端口
--ftp-skip-pasv-ip              使用PASV的时候,忽略该IP地址
--ftp-ssl                      尝试用 SSL/TLS 来进行ftp数据传输
--ftp-ssl-reqd                  要求用 SSL/TLS 来进行ftp数据传输
-F/--form <name=content>        模拟http表单提交数据
-form-string <name=string>      模拟http表单提交数据
-g/--globoff                    禁用网址序列和范围使用{}和[]
-G/--get                        以get的方式来发送数据
-h/--help                      帮助
-H/--header <line>              自定义头信息传递给服务器
--ignore-content-length        忽略的HTTP头信息的长度
-i/--include                    输出时包括protocol头信息
-I/--head                      只显示文档信息
-j/--junk-session-cookies      读取文件时忽略session cookie
--interface <interface>        使用指定网络接口/地址
--krb4 <level>                  使用指定安全级别的krb4
-k/--insecure                  允许不使用证书到SSL站点
-K/--config                    指定的配置文件读取
-l/--list-only                  列出ftp目录下的文件名称
--limit-rate <rate>            设置传输速度
--local-port<NUM>              强制使用本地端口号
-m/--max-time <seconds>        设置最大传输时间
--max-redirs <num>              设置最大读取的目录数
--max-filesize <bytes>          设置最大下载的文件总量
-M/--manual                    显示全手动
-n/--netrc                      从netrc文件中读取用户名和密码
--netrc-optional                使用 .netrc 或者 URL来覆盖-n
--ntlm                          使用 HTTP NTLM 身份验证
-N/--no-buffer                  禁用缓冲输出
-p/--proxytunnel                使用HTTP代理
--proxy-anyauth                选择任一代理身份验证方法
--proxy-basic                  在代理上使用基本身份验证
--proxy-digest                  在代理上使用数字身份验证
--proxy-ntlm                    在代理上使用ntlm身份验证
-P/--ftp-port <address>        使用端口地址,而不是使用PASV
-Q/--quote <cmd>                文件传输前,发送命令到服务器
--range-file                    读取(SSL)的随机文件
-R/--remote-time                在本地生成文件时,保留远程文件时间
--retry <num>                  传输出现问题时,重试的次数
--retry-delay <seconds>        传输出现问题时,设置重试间隔时间
--retry-max-time <seconds>      传输出现问题时,设置最大重试时间
-S/--show-error                显示错误
--socks4 <host[:port]>          用socks4代理给定主机和端口
--socks5 <host[:port]>          用socks5代理给定主机和端口
-t/--telnet-option <OPT=val>    Telnet选项设置
--trace <file>                  对指定文件进行debug
--trace-ascii <file>            Like --跟踪但没有hex输出
--trace-time                    跟踪/详细输出时,添加时间戳
--url <URL>                    Spet URL to work with
-U/--proxy-user <user[:password]>  设置代理用户名和密码
-V/--version                    显示版本信息
-X/--request <command>          指定什么命令
-y/--speed-time                放弃限速所要的时间。默认为30
-Y/--speed-limit                停止传输速度的限制,速度时间'秒
-z/--time-cond                  传送时间设置
-0/--http1.0                    使用HTTP 1.0
-1/--tlsv1                      使用TLSv1(SSL)
-2/--sslv2                      使用SSLv2的(SSL)
-3/--sslv3                      使用的SSLv3(SSL)
--3p-quote                      like -Q for the source URL for 3rd party transfer
--3p-url                        使用url,进行第三方传送
--3p-user                      使用用户名和密码,进行第三方传送
-4/--ipv4                      使用IP4
-6/--ipv6                      使用IP6

转自:http://www.linuxdiyf.com/linux/2800.html

 

 

 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/news/496919.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

无人驾驶推进时间表及五大技术领域关键节点

来源&#xff1a;莫尼塔财新智库摘要&#xff1a;本文援引莫尼塔财新智库的一篇研究&#xff0c;系统梳理了无人驾驶各关键技术节点以及其成熟时间。”“汽车技术发展到如今&#xff0c;几乎没有人质疑无人驾驶会成为汽车行业变革的巨大浪潮&#xff0c;然而对于各项技术落地的…

背景和弹出 Panel 都带有动画效果的 modal 效果

微软Ajax control toolKit 中有 ModalPopup 控件。可以实现页面遮盖的效果。但是遮盖直接出现&#xff0c;十分突然。我想能不能加上渐变的效果&#xff1f;这样感觉会好一点&#xff0c;炫一点。于是又想如果弹出的对话框(Panel)也有动画效果就会更炫了。于是就有了 Animation…

2018年,这些信息通信技术将大红大紫

来源&#xff1a;人民邮电报、中国信息通信研究院当今&#xff0c;全球信息通信产业又一次面临重大技术突破、产业升级的发展机遇&#xff0c;人工智能、第五代移动通信、虚拟现实、增强现实等新一代技术日益成熟&#xff0c;产业化进程加速。通过对全球信息通信行业重点智库技…

DeepMind提出强化学习新算法,教智能体从零学控制

来源&#xff1a;人工智能和大数据摘要&#xff1a;3月2日&#xff0c;DeepMind发表博客文章&#xff0c;提出一种称为SAC-X&#xff08;计划辅助控制&#xff09;的新学习范式&#xff0c;旨在解决让AI以最少的先验知识&#xff0c;从头开始学习复杂控制问题的挑战。这在真实环…

中国各地AI行业政策汇总及解读

来源&#xff1a;数据科学与人工智能随着人工智能的快速发展&#xff0c;国家相继出台一系列政策支持中国人工智能的发展&#xff0c;推动中国人工智能步入新阶段。2017年7月20日&#xff0c;国务院印发了《新一代人工智能发展规划》。规划中提到分三步走&#xff1a;第一步&am…

常州的照片

出差去常州照的几张照片&#xff0c;那边的天气很暖和了。 转载于:https://www.cnblogs.com/Duiker/archive/2008/03/17/1109665.html

从Big Dog到Spot Mini:波士顿动力「四足机器人」进化史概览

来源&#xff1a;雷克世界丨「raicworld」公众号导语&#xff1a;前不久&#xff0c;一段视频刷爆了朋友圈&#xff0c;视频中一个四足机器人不顾人类的阻拦&#xff0c;奋力打开一扇门&#xff0c;最终得以顺利通过。看过视频的人无一不被机器人的“执着”所震撼&#xff0c;一…

重磅《美国机器智能国家战略》

来源&#xff1a; 学术plus2018年3月1日&#xff0c;美国国际战略研究所发布报告《美国机器智能国家战略报告》&#xff0c;提出了机器智能对国防、经济、社会等方面的广泛差异&#xff0c;以及美国在战略制定方面的差距&#xff0c;并给出了具体的意见建议。现将部分内容选编如…

盘点国内最具实力的双足仿人机器人研发团队有哪些?

来源&#xff1a;工业机器人之家北京理工大学 黄强教授团队北京理工大学借鉴人类长期进化所具备自然、快速、协调运动机理和灵巧结构特征&#xff0c;创新地研究了仿人机器人的仿生运动规划、控制与系统集成等关键技术&#xff0c;取得了新突破。提出了仿人机器人运动规划新方法…

数据科学研究的现状与趋势

来源&#xff1a;数据科学DataScience大数据时代的到来催生了一门新的学科——数据科学。本文第1节探讨数据科学的内涵、发展简史、学科地位和知识体系等四个基本问题&#xff0c;并提出了数据科学的两个基本类型——专业数据科学和专业中的数据科学。第2节提出现阶段数据科学研…

DataGridView直接导出EXCEL

1.直接将DataGridView显示的内容导出Excel 1publicvoidDataToExcel(DataGridView m_DataView)2{ 3 SaveFileDialog kk new SaveFileDialog(); 4 kk.Title "保存EXECL文件"; 5 kk.Filter "EXECL文件(*.xls) |*.xls |所有文…

智能的源泉,大脑从何而来?

作者&#xff1a;谢平 中国科学院大学教授引言&#xff1a;人类的神奇常常归结于一个智慧的大脑以及贯穿于其中的无比复杂的神经网络&#xff0c;并认为这源自上帝之手&#xff0c;但其实它并不是无中生有的&#xff0c;而是自然演化的产物&#xff0c;虽然是一个无与伦比的杰作…

物联网技术在智能医疗领域的应用与发展

来源&#xff1a; 传感器技术应对人口结构高龄化所带来的长期照护需求&#xff0c;各国政府纷纷拟定政策&#xff0c;希望利用Wi-Fi、蓝牙、3G、GPS及RFID等物联网技术&#xff0c;架构起移动式医疗网络;且在远距照护等议题发酵下&#xff0c;也带动医疗产业结合物联网进入下一…

xmlHttpRequest无刷新验证用户名

现在好多网站上的注册都用了无刷新验证用户名,这种效果咋看感觉很复杂很难实现,其实它里面用到了Ajax中的核心xmlHttpRequest这个类,如果只是单单想实现这个效果,压根就不用引用Ajax.Net中的组件,因为感觉有点大材小用,下面是具体实现这种效果的方法,希望能给初学Ajax的朋友带来…

如何理解和评价机器学习中的表达能力、训练难度和泛化性能

来源&#xff1a; Eric Jang 的个人博客非常感谢王家兴 (Jiaxing Wang) 把这个博客文章翻译成中文。当我在阅读机器学习相关文献的时候&#xff0c; 我经常思考这项工作是否&#xff1a;提高了模型的表达能力&#xff1b;使模型更易于训练&#xff1b; 提高了模型的泛化性能。在…

谷歌公布72位量子比特处理器,吹响量子霸权冲锋号

作者&#xff1a;杨晓凡谷歌量子 AI 实验室今天发布了新的 72 位量子比特的量子处理器 Bristlecone。虽然目前还没有看到具体的实验结果&#xff0c;但这块芯片的未来有很大潜力&#xff0c;很有可能达成量子计算领域内的重要里程碑。谷歌量子 AI 实验室&#xff08;Google Qua…

AI可以在游戏里称霸,但是解决现实问题太难了

来源&#xff1a;36氪据《大西洋月刊》报道&#xff0c;直到最近&#xff0c;那些能在各类游戏中击败人类冠军的机器&#xff0c;解决现实问题太难了。1997年&#xff0c;为了在国际象棋中击败象棋大师加里卡斯帕罗夫&#xff08;Garry Kasparov&#xff09;&#xff0c;IBM的工…

大话设计模式-策略模式与简单工厂模式

来源&#xff1a;http://blog.csdn.net/wulingmin21/article/details/6712684 策略模式定义了一系列的算法&#xff0c;并将每一个算法封装起来&#xff0c;而且使它们还可以相互替换。策略模式让算法独立于使用它的客户而独立变化。 例如&#xff1a; CashNormal、CashRebate…

全球知识图谱专家分布、研究流派(附学者名单)

来源&#xff1a; THU数据派概要&#xff1a;在维基百科的官方词条中&#xff1a;知识图谱是Google用于增强其搜索引擎功能的知识库。什么是知识图谱&#xff1f;在维基百科的官方词条中&#xff1a;知识图谱是Google用于增强其搜索引擎功能的知识库。本质上, 知识图谱旨在描述…

软件系统架构~思维导图

#原图 System.out.println("https://www.processon.com/view/link/6194f2740e3e7409b9c2f3df")