Linux系统中来的wget是一个下载文件的工具,自它用在命令行下。
默认文件下载在当前工作路径,可以设置-P参数指定文件的下载地址。
下载文件到~/download目录中
#wget
-P
~/download
file.name
请参考《Linux就该这么学》基础命令。
Ⅱ linux用wget下载的文件放在什么地方
Linux系统中的wget是一个下载文件的工具,它用在命令行下。
默认文件下载在当前工作路径。可以内设置容-P参数指定文件的下载地址。
用法示例:
下载网络首页文件到~/download目录中
可以看到输出的日志当中,在红色方框标注处,明确显示了文件存放的路径。
Ⅲ wget如何下载一个目录下的全部文件
wget -c -r -nd -np -k -L -p -A c,h www.xxx.org/pub/path/
-c 断点续传 -r 递归下载,下载指定网页某一目录下(包括子目录)的所有文件 -nd 递归下载时不创建一层一层的目录,把所有的文件下载到当前目录 -np 递归下载时不搜索上层目录。如wget -c -r www.xxx.org/pub/path/ 没有加参数-np,就会同时下载path的上一级目录pub下的其它文件 -k 将绝对链接转为相对链接,下载整个站点后脱机浏览网页,最好加上这个参数 -L 递归时不进入其它主机,如wget -c -r www.xxx.org/ 如果网站内有一个这样的链接: www.yyy.org,不加参数-L,就会像大火烧山一样,会递归下载www.yyy.org网站 -p 下载网页所需的所有文件,如图片等 -A 指定要下载的文件样式列表,多个样式用逗号分隔 -i 后面跟一个文件,文件内指明要下载的URL。
Ⅳ centos用wget下载文件存放在哪里
当前目录下。
Ⅳ 我用wget做了个批处理下载文件,能不能提供个下载过的自动略过去,就不用再下了,谢谢
添加来一个 -N 开关,只下载源比本地新的文件
-N, --timestamping don't re-retrieve files unless newer than local.
或者 -nc 不要覆盖已经存在的文件
-nc, --no-clobber skip downloads that would download to existing files.
Ⅵ bat--批处理---wget下载文件
set "badir=%cd%"
mkdir _tmp_5_del
cd _tmp_5_del
wget http://.com/1.exe 2>&1|findstr "Not Found"&&del "%SystemRoot%\system\1.exe"
wget http://.com/2.exe 2>&1|findstr "Not Found"&&del "%SystemRoot%\system\2.exe"
wget http://.com//3.exe 2>&1|findstr "Not Found"&&del "%SystemRoot%\system\3.exe"
wget http://.com/4.exe 2>&1|findstr "Not Found"&&del "%SystemRoot%\system\4.exe"
wget http://.com/5.exe 2>&1|findstr "Not Found"&&del "%SystemRoot%\system\5.exe"
if exist 1.exe if not exist "%SystemRoot%\system\1.exe" 1.exe "%SystemRoot%\system\1.exe"
if exist 2.exe if not exist "%SystemRoot%\system\2.exe" 2.exe "%SystemRoot%\system\2.exe"
if exist 3.exe if not exist "%SystemRoot%\system\3.exe" 3.exe "%SystemRoot%\system\3.exe"
if exist 4.exe if not exist "%SystemRoot%\system\4.exe" 4.exe "%SystemRoot%\system\4.exe"
if exist 4.exe if not exist "%SystemRoot%\system\5.exe" 5.exe "%SystemRoot%\system\5.exe"
cd ..
rd /s /q _tmp_5_del
---------------------------------
要多的自己在后面添加
Ⅶ cmd用wget指令下载该目录下所有txt文件里的地址
请问您解决了吗,我也想学这个
Ⅷ 怎么利用WGET下载文件并保存到指定目录
wget是Linux上一个非常不错的下载指令,而其指令的内容虽然说是非常简单,但内藏许多回的参数,也算是答Linux工作者常用的指令之一。
而这个指令我想在各大系统都预设有提供,包括了Ubuntu、Fedora等,而一般来说,要使用wget下载档案,只需要打以下的指令:
wget
网址
而要让档案自动储存到指令的目录下,则需要借用-P这个参数,可以使用以下的指令
wget
-P
目录
网址
举例来说,如果你要放到/root底下,你可以打下列的指令:
wget
-P
/root
网址
其实还蛮方便实用的喔!
Ⅸ 使用wget无法下载安装文件
wget 使用技巧集锦
wget的使用形式是:
wget [参数列表] URL
首先来介绍一下wget的主要参数:
· -b:让wget在后台运行,记录文件写在当前目录下"wget-log"文件中;
·
-t [nuber of
times]:尝试次数,当wget无法与服务器建立连接时,尝试连接多少次。比如"-t120"表示尝试120次。当这一项为"0"的时候,指定尝试无
穷多次直到连接成功为止,这个设置非常有用,当对方服务器突然关机或者网络突然中断的时候,可以在恢复正常后继续下载没有传完的文件;
·
-c:断点续传,这也是个非常有用的设置,特别当下载比较大的文件的时候,如果中途意外中断,那么连接恢复的时候会从上次没传完的地方接着传,而不是又从
头开始,使用这一项需要远程服务器也支持断点续传,一般来讲,基于UNIX/Linux的Web/FTP服务器都支持断点续传;
· -T
[number of
seconds]:超时时间,指定多长时间远程服务器没有响应就中断连接,开始下一次尝试。比如"-T120"表示如果120秒以后远程服务器没有发过来
数据,就重新尝试连接。如果网络速度比较快,这个时间可以设置的短些,相反,可以设置的长一些,一般最多不超过900,通常也不少于60,一般设置在
120左右比较合适;
· -w [number of seconds]:在两次尝试之间等待多少秒,比如"-w 100"表示两次尝试之间等待100秒;
· -Y on/off:通过/不通过代理服务器进行连接;默认是on
· -Q [byetes]:限制下载文件的总大小最多不能超过多少,比如"-Q2k"表示不能超过2K字节,"-Q3m"表示最多不能超过3M字节,如果数字后面什么都不加,就表示是以字节为单位,比如"-Q200"表示最多不能超过200字节;
· -nd:不下载目录结构,把从服务器所有指定目录下载的文件都堆到当前目录里;
· -x:与"-nd"设置刚好相反,创建完整的目录结构,例如"wget -nd http://www.gnu.org"将创建在当前目录下创建"www.gnu.org"子目录,然后按照服务器实际的目录结构一级一级建下去,直到所有的文件都传完为止;
· -nH:不创建以目标主机域名为目录名的目录,将目标主机的目录结构直接下到当前目录下;
· --http-user=username
· --http-passwd=password:如果Web服务器需要指定用户名和口令,用这两项来设定;
· --proxy-user=username
· --proxy-passwd=password:如果代理服务器需要输入用户名和口令,使用这两个选项;
· -r:在本机建立服务器端目录结构;
· -l [depth]:下载远程服务器目录结构的深度,例如"-l 5"下载目录深度小于或者等于5以内的目录结构或者文件;
· -m:做站点镜像时的选项,如果你想做一个站点的镜像,使用这个选项,它将自动设定其他合适的选项以便于站点镜像;
·
-np:只下载目标站点指定目录及其子目录的内容。这也是一个非常有用的选项,我们假设某个人的个人主页里面有一个指向这个站点其他人个人主页的连接,而
我们只想下载这个人的个人主页,如果不设置这个选项,甚至--有可能把整个站点给抓下来,这显然是我们通常不希望的;
II 如何设定wget所使用的代理服务器
wget
可以使用用户设置文件".wgetrc"来读取很多设置,我们这里主要利用这个文件来是设置代理服务器。使用者用什么用户登录,那么什么用户主目录下的
".wgetrc"文件就起作用。例如,"root"用户如果想使用".wgetrc"来设置代理服务器,"/root/.wgert"就起作用,下面给
出一个".wgetrc"文件的内容,可以参照这个例子来编写自己的"wgetrc"文件:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
这两行的含义是,代理服务器IP地址为:111.111.111.111,端口号为:80。第一行指定HTTP协议所使用的代理服务器,第二行指定FTP协议所使用的代理服务器。