Linux系統(tǒng)中wget命令的用法詳解
在Linux系統(tǒng)中,wget命令是一個下載工具,那么下面由學習啦小編為大家整理了linux系統(tǒng)中wget命令的用法詳解的相關知識,希望對大家有幫助!
Linux系統(tǒng)中wget命令的用法詳解
1.命令格式:
wget [參數(shù)] [URL地址]
2.命令功能:
用于從網(wǎng)絡上下載資源,沒有指定目錄,下載資源回默認為當前目錄。wget雖然功能強大,但是使用起來還是比較簡單:
1)支持斷點下傳功能;這一點,也是網(wǎng)絡螞蟻和FlashGet當年最大的賣點,現(xiàn)在,Wget也可以使用此功能,那些網(wǎng)絡不是太好的用戶可以放心了;
2)同時支持FTP和HTTP下載方式;盡管現(xiàn)在大部分軟件可以使用HTTP方式下載,但是,有些時候,仍然需要使用FTP方式下載軟件;
3)支持代理服務器;對安全強度很高的系統(tǒng)而言,一般不會將自己的系統(tǒng)直接暴露在互聯(lián)網(wǎng)上,所以,支持代理是下載軟件必須有的功能;
4)設置方便簡單;可能,習慣圖形界面的用戶已經(jīng)不是太習慣命令行了,但是,命令行在設置上其實有更多的優(yōu)點,最少,鼠標可以少點很多次,也不要擔心是否錯點鼠標;
5)程序小,完全免費;程序小可以考慮不計,因為現(xiàn)在的硬盤實在太大了;完全免費就不得不考慮了,即使網(wǎng)絡上有很多所謂的免費軟件,但是,這些軟件的廣告卻不是我們喜歡的。
3.命令說明:
Linux系統(tǒng)中的wget是一個下載文件的工具,它用在命令行下。對于Linux用戶是必不可少的工具,我們經(jīng)常要下載一些軟件或從遠程服務器恢復備份到本地服務器。wget支持HTTP,HTTPS和FTP協(xié)議,可以使用HTTP代理。所謂的自動下載是指,wget可以在用戶退出系統(tǒng)的之后在后臺執(zhí)行。這意味這你可以登錄系統(tǒng),啟動一個wget下載任務,然后退出系統(tǒng),wget將在后臺執(zhí)行直到任務完成,相對于其它大部分瀏覽器在下載大量數(shù)據(jù)時需要用戶一直的參與,這省去了極大的麻煩。
wget 可以跟蹤HTML頁面上的鏈接依次下載來創(chuàng)建遠程服務器的本地版本,完全重建原始站點的目錄結構。這又常被稱作”遞歸下載”。在遞歸下載的時候,wget 遵循Robot Exclusion標準(/robots.txt). wget可以在下載的同時,將鏈接轉換成指向本地文件,以方便離線瀏覽。
wget 非常穩(wěn)定,它在帶寬很窄的情況下和不穩(wěn)定網(wǎng)絡中有很強的適應性.如果是由于網(wǎng)絡的原因下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。如果是服務器打斷下載過程,它會再次聯(lián)到服務器上從停止的地方繼續(xù)下載。這對從那些限定了鏈接時間的服務器上下載大文件非常有用。
Linux系統(tǒng)中wget命令的參數(shù)詳解
啟動參數(shù):
-V, –version 顯示wget的版本后退出
-h, –help 打印語法幫助
-b, –background 啟動后轉入后臺執(zhí)行
-e, –execute=COMMAND 執(zhí)行`.wgetrc’格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc
記錄和輸入文件參數(shù):
-o, –output-file=FILE 把記錄寫到FILE文件中
-a, –append-output=FILE 把記錄追加到FILE文件中
-d, –debug 打印調(diào)試輸出
-q, –quiet 安靜模式(沒有輸出)
-v, –verbose 冗長模式(這是缺省設置)
-nv, –non-verbose 關掉冗長模式,但不是安靜模式
-i, –input-file=FILE 下載在FILE文件中出現(xiàn)的URLs
-F, –force-html 把輸入文件當作HTML格式文件對待
-B, –base=URL 將URL作為在-F -i參數(shù)指定的文件中出現(xiàn)的相對鏈接的前綴
–sslcertfile=FILE 可選客戶端證書
–sslcertkey=KEYFILE 可選客戶端證書的KEYFILE
–egd-file=FILE 指定EGD socket的文件名
下載參數(shù):
–bind-address=ADDRESS 指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)
-t, –tries=NUMBER 設定最大嘗試鏈接次數(shù)(0 表示無限制).
-O –output-document=FILE 把文檔寫到FILE文件中
-nc, –no-clobber 不要覆蓋存在的文件或使用.#前綴
-c, –continue 接著下載沒下載完的文件
–progress=TYPE 設定進程條標記
-N, –timestamping 不要重新下載文件除非比本地文件新
-S, –server-response 打印服務器的回應
–spider 不下載任何東西
-T, –timeout=SECONDS 設定響應超時的秒數(shù)
-w, –wait=SECONDS 兩次嘗試之間間隔SECONDS秒
–waitretry=SECONDS 在重新鏈接之間等待1…SECONDS秒
–random-wait 在下載之間等待0…2*WAIT秒
-Y, –proxy=on/off 打開或關閉代理
-Q, –quota=NUMBER 設置下載的容量限制
–limit-rate=RATE 限定下載輸率
目錄參數(shù):
-nd –no-directories 不創(chuàng)建目錄
-x, –force-directories 強制創(chuàng)建目錄
-nH, –no-host-directories 不創(chuàng)建主機目錄
-P, –directory-prefix=PREFIX 將文件保存到目錄 PREFIX/…
–cut-dirs=NUMBER 忽略 NUMBER層遠程目錄
HTTP 選項參數(shù):
–http-user=USER 設定HTTP用戶名為 USER.
–http-passwd=PASS 設定http密碼為 PASS
-C, –cache=on/off 允許/不允許服務器端的數(shù)據(jù)緩存 (一般情況下允許)
-E, –html-extension 將所有text/html文檔以.html擴展名保存
–ignore-length 忽略 `Content-Length’頭域
–header=STRING 在headers中插入字符串 STRING
–proxy-user=USER 設定代理的用戶名為 USER
–proxy-passwd=PASS 設定代理的密碼為 PASS
–referer=URL 在HTTP請求中包含 `Referer: URL’頭
-s, –save-headers 保存HTTP頭到文件
-U, –user-agent=AGENT 設定代理的名稱為 AGENT而不是 Wget/VERSION
–no-http-keep-alive 關閉 HTTP活動鏈接 (永遠鏈接)
–cookies=off 不使用 cookies
–load-cookies=FILE 在開始會話前從文件 FILE中加載cookie
–save-cookies=FILE 在會話結束后將 cookies保存到 FILE文件中
FTP 選項參數(shù):
-nr, –dont-remove-listing 不移走 `.listing’文件
-g, –glob=on/off 打開或關閉文件名的 globbing機制
–passive-ftp 使用被動傳輸模式 (缺省值).
–active-ftp 使用主動傳輸模式
–retr-symlinks 在遞歸的時候,將鏈接指向文件(而不是目錄)
遞歸下載參數(shù):
-r, –recursive 遞歸下載--慎用!
-l, –level=NUMBER 最大遞歸深度 (inf 或 0 代表無窮)
–delete-after 在現(xiàn)在完畢后局部刪除文件
-k, –convert-links 轉換非相對鏈接為相對鏈接
-K, –backup-converted 在轉換文件X之前,將之備份為 X.orig
-m, –mirror 等價于 -r -N -l inf -nr
-p, –page-requisites 下載顯示HTML文件的所有圖片
遞歸下載中的包含和不包含(accept/reject):
-A, –accept=LIST 分號分隔的被接受擴展名的列表
-R, –reject=LIST 分號分隔的不被接受的擴展名的列表
-D, –domains=LIST 分號分隔的被接受域的列表
–exclude-domains=LIST 分號分隔的不被接受的域的列表
–follow-ftp 跟蹤HTML文檔中的FTP鏈接
–follow-tags=LIST 分號分隔的被跟蹤的HTML標簽的列表
-G, –ignore-tags=LIST 分號分隔的被忽略的HTML標簽的列表
-H, –span-hosts 當遞歸時轉到外部主機
-L, –relative 僅僅跟蹤相對鏈接
-I, –include-directories=LIST 允許目錄的列表
-X, –exclude-directories=LIST 不被包含目錄的列表
-np, –no-parent 不要追溯到父目錄
wget -S –spider url 不下載只顯示過程