魔兽作弊器-客户端证书已过期

pcre是什么
2023年4月4日发(作者:仿制图章)

在Linux下⽤命令⾏下载指定连接内容

案例

在Linux下,我想⽤命令⾏直接下载hummerDB

步骤:

curl-O

然⽽这样下载下来的.⽂件⽆法解压,因为是假的,傻了吧。说明以上做法是错误的。

。。。

正确的下姿势如下:

wget

解压

下载并解压成功!

讲道理curl也⽀持下载,⾄于为什么下载失败希望有⼈能告诉我.....

curl解释

curl是常⽤的命令⾏⼯具,⽤来请求Web服务器。它的名字就是客户端(client)的URL⼯具的意思。在Linux中curl是⼀个利⽤URL规则在

命令⾏下⼯作的⽂件传输⼯具,可以说是⼀款很强⼤的http命令⾏⼯具。它⽀持⽂件的上传和下载,是综合传输⼯具,它的功能⾮常强⼤,命令

⾏参数多达⼏⼗种。如果熟练的话,完全可以取代Postman这⼀类的图形界⾯⼯具。

语法

curl[option][url]

option

-A/--user-agent设置⽤户代理发送给服务器

-b/--cookiecookie字符串或⽂件读取位置

-c/--cookie-jar操作结束后把cookie写⼊到这个⽂件中

-C/--continue-at断点续转

-D/--dump-header把header信息写⼊到该⽂件中

-e/--referer来源⽹址

-f/--fail连接失败时不显⽰http错误

-o/--output把输出写到该⽂件中

-O/--remote-name把输出写到该⽂件中,保留远程⽂件的⽂件名

-r/--range检索来⾃HTTP/1.1或FTP服务器字节范围

-s/--silent静⾳模式。不输出任何东西

-T/--upload-file上传⽂件

-u/--user设置服务器的⽤户和密码

-w/--write-out[format]什么输出完成后

-x/--proxy在给定的端⼝上使⽤HTTP代理

-#/--progress-bar进度条显⽰当前的传送状态

参考

wget解释

wget是⼀个从⽹络上⾃动下载⽂件的⾃由⼯具,⽀持通过HTTP、HTTPS、FTP三个最常见的TCP/IP协议下载,并可以使⽤HTTP代理。

"wget"这个名称来源于“WorldWideWeb”与“get”的结合。

语法

1

2⽤法:wget[optional][URL]

3

4长选项所必须的参数在使⽤短选项时也是必须的。

5

6启动:

7-V,--version显⽰Wget的版本信息并退出。

8-h,--help打印此帮助。

9-b,--background启动后转⼊后台。

10-e,--execute=COMMAND运⾏⼀个“.wgetrc”风格的命令。

11

12⽇志和输⼊⽂件:

13-o,--output-file=FILE将⽇志信息写⼊FILE。

14-a,--append-output=FILE将信息添加⾄FILE。

15-d,--debug打印⼤量调试信息。

16-q,--quiet安静模式(⽆信息输出)。

17-v,--verbose详尽的输出(此为默认值)。

18-nv,--no-verbose关闭详尽输出,但不进⼊安静模式。

19--report-speed=nbebits.

20-i,--input-file=FILE下载本地或外部FILE中的URLs。

21-F,--force-html把输⼊⽂件当成HTML⽂件。

22-B,--base=URL解析与URL相关的

23HTML输⼊⽂件(由-i-F选项指定)。

24--config=FILESpecifyconfigfiletouse.

25

26下载:

27-t,--tries=NUMBER设置重试次数为NUMBER(0代表⽆限制)。

28--retry-connrefused即使拒绝连接也是重试。

29-O,--output-document=FILE将⽂档写⼊FILE。

30-nc,--no-clobberskipdownloadsthatwoulddownloadto

31existingfiles(overwritingthem).

32-c,--continue断点续传下载⽂件。

33--progress=TYPE选择进度条类型。

34-N,--timestamping只获取⽐本地⽂件新的⽂件。

35--no-use-server-timestamps不⽤服务器上的时间戳来设置本地⽂件。

36-S,--server-response打印服务器响应。

37--spider不下载任何⽂件。

38-T,--timeout=SECONDS将所有超时设为SECONDS秒。

39--dns-timeout=SECS设置DNS查寻超时为SECS秒。

40--connect-timeout=SECS设置连接超时为SECS秒。

41--read-timeout=SECS设置读取超时为SECS秒。

42-w,--wait=SECONDS等待间隔为SECONDS秒。

43--waitretry=SECONDS在获取⽂件的重试期间等待1..SECONDS秒。

44--random-wait获取多个⽂件时,每次随机等待间隔

450.5WAIT...1.5WAIT秒。

46--no-proxy禁⽌使⽤代理。

47-Q,--quota=NUMBER设置获取配额为NUMBER字节。

48--bind-address=ADDRESS绑定⾄本地主机上的ADDRESS(主机名或是IP)。

49--limit-rate=RATE限制下载速率为RATE。

50--no-dns-cache关闭DNS查寻缓存。

51--restrict-file-names=OS限定⽂件名中的字符为OS允许的字符。

52--ignore-case匹配⽂件/⽬录时忽略⼤⼩写。

53-4,--inet4-only仅连接⾄IPv4地址。

54-6,--inet6-only仅连接⾄IPv6地址。

55--prefer-family=FAMILY⾸先连接⾄指定协议的地址

56FAMILY为IPv6,IPv4或是none。

57--user=USER将ftp和http的⽤户名均设置为USER。

58--password=PASS将ftp和http的密码均设置为PASS。

59--ask-password提⽰输⼊密码。

60--no-iri关闭IRI⽀持。

61--local-encoding=ENCIRI(国际化资源标识符)使⽤ENC作为本地编码。

62--remote-encoding=ENC使⽤ENC作为默认远程编码。

63--unlinkremovefilebeforeclobber.

64

65⽬录:

66-nd,--no-directories不创建⽬录。

67-x,--force-directories强制创建⽬录。

68-nH,--no-host-directories不要创建主⽬录。

69--protocol-directories在⽬录中使⽤协议名称。

70-P,--directory-prefix=PREFIX以PREFIX/...保存⽂件

71--cut-dirs=NUMBER忽略远程⽬录中NUMBER个⽬录层。

72

73HTTP选项:

74--http-user=USER设置http⽤户名为USER。

75--http-password=PASS设置http密码为PASS。

76--no-cache不在服务器上缓存数据。

77--default-page=NAME改变默认页

78(默认页通常是“”)。

79-E,--adjust-extension以合适的扩展名保存HTML/CSS⽂档。

80--ignore-length忽略头部的‘Content-Length’区域。

81--header=STRING在头部插⼊STRING。

82--max-redirect每页所允许的最⼤重定向。

83--proxy-user=USER使⽤USER作为代理⽤户名。

84--proxy-password=PASS使⽤PASS作为代理密码。

85--referer=URL在HTTP请求头包含‘Referer:URL’。

86--save-headers将HTTP头保存⾄⽂件。

87-U,--user-agent=AGENT标识为AGENT⽽不是Wget/VERSION。

88--no-http-keep-alive禁⽤HTTPkeep-alive(永久连接)。

89--no-cookies不使⽤cookies。

90--load-cookies=FILE会话开始前从FILE中载⼊cookies。

91--save-cookies=FILE会话结束后保存cookies⾄FILE。

92--keep-session-cookies载⼊并保存会话(⾮永久)cookies。

93--post-data=STRING使⽤POST⽅式;把STRING作为数据发送。

94--post-file=FILE使⽤POST⽅式;发送FILE内容。

95--content-disposition当选中本地⽂件名时

96允许Content-Disposition头部(尚在实验)。

97--content-on-erroroutputthereceivedcontentonservererrors.

98--auth-no-challenge发送不含服务器询问的⾸次等待

99的基本HTTP验证信息。

100

101HTTPS(SSL/TLS)选项:

102--secure-protocol=PRchoosesecureprotocol,oneofauto,SSLv2,

103SSLv3,TLSv1,TLSv1_1andTLSv1_2.

104--no-check-certificate不要验证服务器的证书。

105--certificate=FILE客户端证书⽂件。

106--certificate-type=TYPE客户端证书类型,PEM或DER。

107--private-key=FILE私钥⽂件。

108--private-key-type=TYPE私钥⽂件类型,PEM或DER。

109--ca-certificate=FILE带有⼀组CA认证的⽂件。

110--ca-directory=DIR保存CA认证的哈希列表的⽬录。

111--random-file=FILE带有⽣成SSLPRNG的随机数据的⽂件。

112--egd-file=FILE⽤于命名带有随机数据的EGD套接字的⽂件。

113

114FTP选项:

115--ftp-user=USER设置ftp⽤户名为USER。

116--ftp-password=PASS设置ftp密码为PASS。

117--no-remove-listing不要删除‘.listing’⽂件。

118--no-glob不在FTP⽂件名中使⽤通配符展开。

119--no-passive-ftp禁⽤“passive”传输模式。

120--preserve-permissions保留远程⽂件的权限。

121--retr-symlinks递归⽬录时,获取链接的⽂件(⽽⾮⽬录)。

122

123WARCoptions:

124--warc-file=FILENAMEsaverequest/.

125--warc-header=STRINGinsertSTRINGintothewarcinforecord.

126--warc-max-size=NUMBERsetmaximumsizeofWARCfilestoNUMBER.

127--warc-cdxwriteCDXindexfiles.

128--warc-dedup=FILENAMEdonotstorerecordslistedinthisCDXfile.

129--no-warc-compressiondonotcompressWARCfileswithGZIP.

130--no-warc-digestsdonotcalculateSHA1digests.

131--no-warc-keep-logdonotstorethelogfileinaWARCrecord.

132--warc-tempdir=DIRECTORYlocationfortemporaryfilescreatedbythe

133WARCwriter.

134

135递归下载:

136-r,--recursive指定递归下载。

137-l,--level=NUMBER最⼤递归深度(inf或0代表⽆限制,即全部下载)。

138--delete-after下载完成后删除本地⽂件。

139-k,--convert-links让下载得到的HTML或CSS中的链接指向本地⽂件。

140--backups=NbeforewritingfileX,rotateuptoNbackupfiles.

141-K,--backup-converted在转换⽂件X前先将它备份为。

142-m,--mirror-N-r-linf--no-remove-listing的缩写形式。

143-p,--page-requisites下载所有⽤于显⽰HTML页⾯的图⽚之类的元素。

144--strict-comments⽤严格⽅式(SGML)处理HTML注释。

145

146递归接受/拒绝:

147-A,--accept=LIST逗号分隔的可接受的扩展名列表。

148-R,--reject=LIST逗号分隔的要拒绝的扩展名列表。

149--accept-regex=REGEXregexmatchingacceptedURLs.

150--reject-regex=REGEXregexmatchingrejectedURLs.

151--regex-type=TYPEregextype(posix|pcre).

152-D,--domains=LIST逗号分隔的可接受的域列表。

153--exclude-domains=LIST逗号分隔的要拒绝的域列表。

154--follow-ftp跟踪HTML⽂档中的FTP链接。

155--follow-tags=LIST逗号分隔的跟踪的HTML标识列表。

156--ignore-tags=LIST逗号分隔的忽略的HTML标识列表。

157-H,--span-hosts递归时转向外部主机。

158-L,--relative只跟踪有关系的链接。

159-I,--include-directories=LIST允许⽬录的列表。

160--trust-server-namesusethenamespecifiedbytheredirection

161urllastcomponent.

162-X,--exclude-directories=LIST排除⽬录的列表。

163-np,--no-parent不追溯⾄⽗⽬录。

参考

curl和wget的区别

wget是个专职的下载利器,简单,专⼀,极致;

⽽curl可以下载,但是长项不在于下载,⽽在于模拟提交web数据,POST/GET请求,调试⽹页,等等。

在下载上,也各有所长,wget可以递归,⽀持断点;⽽curl⽀持URL中加⼊变量,因此可以批量下载。

常⽤wget来下载⽂件,加-c选项不怕断⽹;使⽤curl来跟⽹站的API交互,简便清晰。

⼀般来说,wget是⽤来下载的,curl是⽤来调试的,有各种语⾔的库。

更多推荐

pcre是什么