導航:首頁 > 文件目錄 > 導出本地文件系統路徑

導出本地文件系統路徑

發布時間:2023-05-22 18:36:36

㈠ 巧用tree命令導出文件目錄遞歸詳情

我清楚的記得在我讀研二的時候有一次我幫老師收「海外名師課堂」的作業,有一名巴基斯坦的學生,想要老師的課件,我當時給他說這個不被允許,隨便給外國留學生拷貝課件原則上是不允許的,我是這樣認為的。但是他說這個是經過了我們老師的同意,聽到這我就給他拷貝了課件,不然好像顯得我們巴鐵關系也不怎麼鐵,一個課件都不拷貝。但是同時他希望我能給他提供課件的目錄概覽信息,他當時說的英文,但是我聽出來了,並想都沒想就回答:「OK,I』ll send you later.」

回到教研室,我就開始琢磨這個事兒,因為課件很大,目錄很深,並且內容也是非常多的。靠人為梳理目錄關系肯定是不行的,我就想起來以前用過的 tree 命令,在網上搜羅了一下,還真的有類似的功能樣例,可以直接輸出指定目錄的遞歸文件概覽詳情。

二話不說,先看命令:

<pre class="custom" data-tool="mdnice編輯器" style="margin-top: 10px; margin-bottom: 10px; border-radius: 5px; box-shadow: rgba(0, 0, 0, 0.55) 0px 2px 10px;">`# 切換至目標目錄, /d是切換盤符的意思

cd /d W:Google_Download

tree /f > W: ree.txt` </pre>

不過說真的,Windows的cmd命令真是惡心極了,難道就不能向linux一樣,直接 cd 嗎!還非得加個 /d 參數。

命令執行如下:

執行結果如圖所示:

從上圖來看,我們完整的拿到了目標目錄 W:Google_Download 的文件遞歸詳情。

如果你也有類似的需求,那麼這個 命令對你會非常有幫助!省時省力~

Linux tree命嫌頌令用於以樹狀圖列出目錄的內容。

執行tree指令,它會列出指定目錄下的所有文件,包括子目錄里的文件。

<pre class="custom" data-tool="mdnice編輯器" style="margin-top: 10px; margin-bottom: 10px; border-radius: 5px; box-shadow: rgba(0, 0, 0, 0.55) 0px 2px 10px;"> -a 顯示所有文件和目錄。 -A 使用ASNI繪圖字元顯示樹狀圖而非以ASCII字元組合。 -C 在文件和目錄清單加上色彩,便於區分各種類型。 -d 顯示目錄悉燃名稱而非內容。 -D 列出文件或目錄的更改時芹陸鄭間。 -f 在每個文件或目錄之前,顯示完整的相對路徑名稱。 -F 在執行文件,目錄,Socket,符號連接,管道名稱名稱,各自加上"*","/","=","@","|"號。 -g 列出文件或目錄的所屬群組名稱,沒有對應的名稱時,則顯示群組識別碼。 -i 不以階梯狀列出文件或目錄名稱。 -L level 限制目錄顯示層級。 -l 如遇到性質為符號連接的目錄,直接列出該連接所指向的原始目錄。 -n 不在文件和目錄清單加上色彩。 -N 直接列出文件和目錄名稱,包括控制字元。 -p 列出許可權標示。 -P<範本樣式> 只顯示符合範本樣式的文件或目錄名稱。 -q 用"?"號取代控制字元,列出文件和目錄名稱。 -s 列出文件或目錄大小。 -t 用文件和目錄的更改時間排序。 -u 列出文件或目錄的擁有者名稱,沒有對應的名稱時,則顯示用戶識別碼。 -x 將范圍局限在現行的文件系統中,若指定目錄下的某些子目錄,其存放於另一個文件系統上,則將該子目錄予以排除在尋找范圍外。 </pre>

使用 tree 命令如下,經過我的使用,好像Windows OS不完全支持 tree 命令!

不過在某些情況下, tree 命令還是能夠幫我們解決一些問題的。

㈡ HDFS操作命令

HDFS命令基本格式:hadoop fs -cmd < args >

表格:

注意:以上表格中路徑包括hdfs中的路徑和linux中的路徑。對於容易產生歧義的地方,會特別指出「linux路徑」或者「hdfs路徑」。如果沒有明確指出,意味著是hdfs路徑。

HDFS有一個默認的工作目錄/user/$USER,其中$USER是用戶的登錄用戶名。不過目錄不會自動建立,需要mkdir建立它
命令格式:hadoop fs -mkdir

注意:支持級聯創建新目錄,Hadoop的mkdir命令會自動創建父目錄,類似於帶-p的linux命令

put命令從本地文件系統中 復制單個或多個 源路徑到目標文件系統,也支持從標准輸入設備中讀取輸飢孫斗入並寫入目標文件系統。分為本地上傳和上傳到HDFS中。
命令格式:hadoop fs -put filename

最後一個參數是句點,相當於放入了默認的工作目錄,等價於 hadoop fs -put example.txt /user/chen

上傳文件時,文件首先復制到DataNode上,只有所有的DataNode都成功接收完數據,文件上傳才是成功的凱物。
命令格式:hadoop dfs put filename newfilename

從本地文件系統中復制單個或多個源路徑到目標文件系統。也支持從 標准輸入 中讀取輸入寫入目標文件系統。

採用-ls命令列出HDFS上的文件。在HDFS中未帶參數的-ls命令沒有返回任何值,它默認返回HDFS的home目錄下
的內容。在HDFS中,沒有當前工作目錄這樣一個概念,也沒有cmd這樣的命令。
命令格式:user@NameNode:hadoop$ bin/hadoop dfs -ls
如:

通過「-ls 文件夾名」 命令瀏覽HDFS下文件夾中的文件
命令格式:hadoop dfs -ls 文件夾名

通過該命令可以查看in文件夾中的所有文檔文件

通過「-cat 文件名」命令查看HDFS下文件夾中某個文件的內容
命令格式:hadoop$ bin/hadoop dfs -cat 文件名

通過這個命令可以查看in文件夾中所有文件的內容

通過「-get 文件按1 文件2」命令將HDFS中某目錄下的文件復制到本地系統的某文件中,並對該文件重新命名。
命令格式:hadoop dfs -get 文件名 新文件名

-get 命令與-put命令一樣,既可以操作目錄,也可以操作文件

通過「-rmr 文件」命令刪除HDFS下的文件
命令格式:hadoop$ bin/hadoop dfs -rmr 文件

-rmr 刪除文檔命令相當於delete的遞歸版本

通過-format命令實現HDFS格式化
命爛磨令格式:user@NameNode:hadoop$ bin/hadoop NameNode -format

通過運行start-dfs.sh,就可以啟動HDFS了
命令格式:user@NameNode:hadoop$ bin/ start-dfs.sh

當需要退出HDFS時,通過stop-dfs.sh 就可以關閉HDFS
命令格式:user@NameNode:hadoop$ bin/ stop-dfs.sh

HDFS的命令遠不止這些,對於其他操作,可以通過-help commandName 命令列出清單。下面列舉一些命令進行說明。

(1)chgrp改變文件所屬的組命令
chgrp命令的用途是:更改文件或目錄的組所有權。
語法格式:hadoop fs -charg [-R] GROUP URL .....
使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是文件的所有者或者超級用戶。

(2)chmod改變文件的許可權
chmod用於改變文件或目錄的訪問許可權,這個Linux系統管理員最常用的命令之一。
使用方法:hadoop fs -chmod [-R] ...
使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是文件的所有者或者是超級用戶

(3)chown改變文件的擁有者
chown命令改變文件的擁有者。
使用方法:hadoop fs -chown [-R]....
使用-R將使改變在目錄結構下遞歸進行。命令的使用者必須是超級用戶。

(4)FromLocal命令
除了限定 源路徑 是只能是一個 本地文件 外,其他方面和put命令相似。
使用方法:hadoop fs -FromLocal <localsrc> URI

(5)ToLocal命令
除了限定 目標路徑 是一個 本地文件 外,其他方面和get命令類似。
使用方法:hadoop fs -ToLocal {-ignorecrc} {-crc} URI <localdst>

(6)cp命令
cp命令是將文件從源路徑復制到目標路徑。這個命令允許有多個源路徑,此時目標路徑必須是一個目錄。
使用方法:hadoop fs -cp URI [URI....] <dest>

返回值:成功返回0 ,失敗返回-1

(7)命令
命令顯示目錄中 所有文件的大小 ,或者當只指定一個文件時,顯示此文件的大小
使用方法:hadoop fs - URI [URI........]

返回值
成功返回0,失敗返回-1

(8)s命令
s是顯示 文件大小 的命令。
使用方法:hadoop fs -s <args>

(9)expunge命令
expunge是清空回收站的命令
使用方法:hadoop fs -expunge

(10)get命令
get是復制文件到本地文件系統的命令
使用方法:hadoop fs -get [-ignorecrc] [-crc] <localdst>
可用-ignorecrc選項復制CRC校驗失敗的文件:使用-CRC選項復制文件以及CRC信息。

返回值
成功返回0,失敗返回-1

(11)getmerge命令
getmerge命令用於接受一個源目錄和一個目標文件作為輸入,並且將源目錄中所有的文件合並成本地目標文件。
使用方法:hadoop fs -getmerge <src> <localdst> [addnl]
參數說明:addl是可選的,用於指定在每個文件結尾添加一個換行符;

假設在你的hdfs集群上有一個/user/hadoop/output目錄
裡面有作業執行的結果(多個文件組成)part-000000,part-000001,part-000002

然後就可以在本地使用vi local_file查看內容了

(12)ls命令
ls命令查看當前目錄下的信息
使用方法:hadoop fs -ls <args>
如果是 文件 ,則按照如下格式返迴文件信息:
文件名 <副本數>文件大小 修改日期 修改時間 許可權 用戶ID 組ID

如果是 目錄 ,則返回它直接子文件的一個列表,就像在UNIX中一樣。目錄返回i額表的信息如下:
目錄名<dir>修改日期 修改時間 許可權 用戶ID 組ID

返回值
成功返回0,失敗返回-1

(13)lsr命令
lsr命令是-ls命令的遞歸版,類似於UNIX中的ls-r。
使用方法:hadoop fs -lsr <args>

(14)movefromLocal命令
復制一份本地文件到hdfs,當成功後,刪除本地文件
使用方法:dfs -moveFromLocal <src> <dst>

(14.5)moveToLocal命令
類似於-get,但是當復制完成後,會刪除hdfs上的文件
使用方法:moveToLocal <src> <localDest>

(15)mv命令
將文件從源路徑移動到目標路徑。這個命令允許有多個源路徑,此時目標路徑必須是一個目錄
使用方法:hadoop fs -mv URI [URI.....] <dest>
備註:不允許在不同的文件系統間移動文件。

返回值
成功返回0,失敗返回-1

(16)put 命令
put命令從本地文件系統中復制單個或多個源路徑到目標文件系統,也支持從標准輸入中讀取輸入寫入目標文件系統
使用方法:hadoop fs -put <localsrc> .... <dst>

(17)rm命令
rm命令刪除指定的文件,只刪除非空目錄和文件。
使用方法:hadoop fs -rm URI [URI......]
請參考rmr命令了解遞歸刪除。

(18)rmr命令
rmr命令是delete命令的遞歸版本
使用方法:hadoop fs -rmr URI [URI.......]

返回值
成功返回0,失敗返回-1

(19)setrep命令
setrep命令可以改變一個文件的副本系數。
使用方法:hadoop fs -setrep [-R] <path>
參數說明:-R 選項用於遞歸改變目錄下所有文件的副本系數

返回值
成功返回0,失敗返回-1

(20)stat命令
stat命令用於返回指定路徑的統計信息
使用方法:hadoop fs -stat URI [URI......]

返回值
成功返回0,失敗返回-1

(21)tail命令
tail命令將文件尾部1KB的內容輸出到stdout。支持-f選項,行為和UNIX中一致
使用方法:hadoop fs -tail [-f] URI

返回值
成功返回0,失敗返回-1

(22)test命令
test命令是檢查命令,可以檢查文件是否存在、文件的大小等。
使用方法:hadoop fs -test -[ezd] URI

(23)text命令
text命令用於將源文件輸出問文本格式
使用方法:hadoop fs -text <src>
允許的格式是zip和TextRecordInputStream。

(24)touchz 命令
touchz命令用於創建一個0位元組的空文件。
使用方法: hadoop fs -touchz URI [URI....]

返回值
成功返回0,失敗返回-1

㈢ 如何獲取圖像緩存,並將 SDWebImage 的文件系統路徑

我使用SDWebImage的圖像在UICollectionView中我的 iOS 應用程序的緩存。
一切都很好,但是當用戶滾動快速的集合視圖有總是小暫停之前佔位符將被替換緩存的圖像。我相信這是因為緩存中檢查。為更好的用戶體驗,我想要顯示正確沖脊的圖像,而不是佔位符,一旦圖像實際上的高速緩存的單元格。如果我能得到的緩存的圖像 (設備) 本地文件系統路徑並將它存儲在該顯示的實例,並使用它,這將很容易 (如果存在) 而不是我的佔位符。
然而它獲取的唯一論據是UIImage實例 (實際上也有BOOL變數稱為緩存太正在傳遞的主分支) 中有向傳遞給setImageWithURL方法成功塊的可能性。所以-有沒有可能直接從UIImage實例腔派獲取圖像的文件系統路徑?或我應該修改SDWebImage所以它傳遞散圓滲的信息

㈣ 小弟今天才知道在瀏覽器里也可以查看本地的文件系統,我是在Linux下試的。這不重要了,

1、首先明白一個小知識:本地文件傳輸協議:
英文原義:File Protocol
中文釋義:本地文件傳輸協議
註解:File協議主要用於訪問本地計算機中的文件,就如同在Windows資源治理器中打開文件一樣。

2、應用:要使用File協議,基本的格式如下:file:///文件路徑,
比如要打開d盤download文件夾中,在FF地址欄中輸入:file:///d:/download/,還可以排序。
瀏覽具體文件:file:///d:/download/abc.txt
--------------------
夠明白吧
還想研究的話就去看FF的源碼吧

㈤ 如何導出cydia安裝的軟體到電腦上

方法一
將手機連接電腦打開PP助手--文件--文件系統(越獄)--路徑:/var/root/Media/Cydia/AutoInstall(將deb格式的Cydia插件導入。)

2.然後重啟手機(如果沒有安裝成功,請再重啟一次!)

方法二
1.在Cydia安裝iFile(文件管理)插件.(源地址:威鋒源apt.weiPhone.com)

2.將手機連接電腦打開PP助手--文件明清笑--文件系統(越獄)--路徑:/var/root/Media/Cydia/AutoInstall(將deb格式的Cydia插件導入。路徑激含可以隨便只要自己記住就可以。)

3.通過iFile(文件管理)打開路徑:/var/root/Media/Cydia/AutoInstall(這路徑是自己導入deb格式),點擊軟體進正如行安裝(安裝後沒有請重啟一次)。

㈥ 如何將hbase表的數據導出到本地文件中

1 HBase本身提供的介面
其調用形式為:
1)導入
./hbase org.apache.hadoop.hbase.maprece.Driver import 表名 數據文件位置
其中數據文件位置可為本地文件目錄,也可以分布式文件系統hdfs的路徑。
當其為前者時,直接指定即可,也可以加前綴file:///
而當其偉後者時,必須明確指明hdfs的路徑,例如hdfs://mymaster:9000/path
2)導出
./hbase org.apache.hadoop.hbase.maprece.Driver export 表名 數據文件位置
同上,其中數據文件位置可為本地文件目錄,也可以分布式文件系統hdfs的路徑。
另外,該介面類還提供了一些其它的方法,例如表與表之間的數據拷貝,導入tsv文件等,可回車鍵查看
2 hadoop提供的工具(hadoop tool interface)

使用該工具的話,需要首先配置hadoop-env.sh,否則在執行時會提示缺少jar包或者class文件。
1)配置
切換到hadoop安裝目錄下,
vim hadoop-env.sh,加以下語句
export HADOOP_CLASSPATH="hbasejar包路徑:zookeeper的jar包路徑:hbase的config目錄"
2)使用
導入:
hadoop jar /../hbase/hbase-*.jar import mytest /export/mybakup
導出:
hadoop jar /../hbase/hbase-*.jar import mytest /import/mybackup
直接將數據導出到hdfs目錄中,當不指定file前綴時。

另外:
export,fs的參數為hdfs上的路徑時,該路徑必須不能已經存在,否則會報錯。
import的表必須是hbase中已經創建好的,否則會報錯。

javascript 導出文件 彈出選擇路徑窗口 返迴路徑和文件名

那如果要是直接是後台生成一個excel表格文件,也就是xls文件,然後點擊下載或是導出時候,頁面上彈出下載框,可以供用戶選擇下載地址以及修改名字可以嗎?

㈧ 找出文件系統中所有名字為myfile的文件,並輸出這些文件路徑到/root/test文件中,此命令後台操作。

cd / && find -name "myfile" > /root/test

㈨ HDFS和本地文件系統文件互導

初步了解一下情況,後續根據給出案例

一、從本地文件系統到HDFS

使用hdfs自帶的命令

命令:hdfs dfs -FromLocal inputPath outputPath

inputPath:本地文件目錄的路徑

outputPath:hdfs文件目錄路徑,即存儲路徑

二、從HDFS到本地文件系統

命令:hdfs dfs -ToLocal inputPath outputPath

inputPath:hdfs文件目錄

outputPath:本地文件文件目錄,即本地存儲路徑

因為Hbas和Hive都在存儲在HDFS中,所以可以通過該條命令可以把Hbase和Hive存儲在HDFS中的文件復制出來。但是經過實踐,通高簡過這種方式復制出來的Hbase文件是亂碼。Hive里的文件有時候也會亂碼,這取決於Hive數據的插入方式。

三、文件在HDFS內的移動

1、從Hbase表導出數據到HDFS

命令:hbase org.apache.hadoop.hbase.maprece.Export tableName outputPaht

例子:hbase org.apache.hadoop.hbase.maprece.Export test /user/data

test為需要從Hbase中導出的表,/user/data為hdfs上的路徑,即存儲路徑,如果最後一個參數有前綴file:// 則為本地上的文件存儲系統

2、從HDFS導入到Hbase表中,需要事先建立好表結構

命令:hbase org.apache.hadoop.hbase.maprece.Export tableName inputPaht

例子:hbase org.apache.hadoop.hbase.maprece.Import test1 /態拍temp/part-m-00000

案列:

兩個不同環境數據,數據導入

過程描述:

            導出正式環境數據到hdfs中,然後從hdfs中導出到本地,本地傳到測試環境主機,然後從本地導入到hdfs中,再從hdfs中導入到hbase中。

處理過程:

1、注意事項:1、許可權問題使用hdfs:sudo -u hdfs ;

                      2、存放上傳路徑最好不要在root下

    帆念羨                  3、上傳完成後,查看是否在使用,數據已經插入。

1、sudo -u hdfs hbase org.apache.hadoop.hbase.maprece.Export ** /hbase/**_bak  (導出到hdfs中的**_bak)

2、hdfs dfs -ToLocal /hbase/sw_bak /test  (導出hdfs中文件到本地test,註:提前建好目錄)

3、scp -r test_bak [email protected].**:/root/test  (傳送目錄到測試環境主機目錄下,註:傳到測試環境後,把文件不要放到root的目錄下,換家目錄下)

4、sudo -u hdfs hdfs dfs -FromLocal /chenzeng/text_bak /data (把sw傳到hdfs 中,注意上傳時,文件路徑要對,放在data路徑下比較好)

5、sudo -u hdfs hbase org.apache.hadoop.hbase.maprece.Import test /data/test_bak/part-m-0000 (注意上次文件)

6、在hbase shell 中查看test :count 'test' 確認是否上傳成功

優化:

truncate 『』

正式環境導入至hdfs中時,

可以直接在另一個環境的執行sudo -u hdfs hbase org.apache.hadoop.hbase.maprece.Import test hdfs://server243:8020/hbase****  可以直接加主機和對應路徑進行put。

㈩ 導出路徑的後綴是

ai。導出的路徑格式耐模是AdobeIllustrator格式,後綴是ai,有的是sql。後綴就是文件名點後面的英文昌輪緩,路徑是一種電腦文件或目錄的名稱的通用表現形式,指向文件系統上的一個唯一位置,由多個部分組成,桐豎各部分之間有分隔字元。

閱讀全文

與導出本地文件系統路徑相關的資料

熱點內容
linux中更改文件的群組 瀏覽:373
app使用照相許可權的目的是什麼 瀏覽:315
做網站都需要什麼 瀏覽:671
設置n卡程序設置 瀏覽:901
中山哪些是正規網路教育大學 瀏覽:766
發那科系統編程怎麼寫中文 瀏覽:730
電信光貓要用超級賬戶密碼是什麼 瀏覽:73
冰法神器升級路線 瀏覽:795
汽車上的數據都有哪些 瀏覽:149
ipad怎麼刪除文件夾 瀏覽:649
感謝編程學校該怎麼說 瀏覽:217
怎麼給wps文件加密 瀏覽:528
美國有什麼購物網站 瀏覽:208
靈武品牌網路推廣有哪些 瀏覽:398
vhdl編程實例教程 瀏覽:336
微信找回密碼 瀏覽:782
怎麼撤回離線文件 瀏覽:380
unity3d教程pdf 瀏覽:149
三星2014升級怎麼辦 瀏覽:235
怎麼找到微信小視頻文件 瀏覽:278

友情鏈接