hadoop dfs 常用命令列

來源:互聯網
上載者:User
關鍵字 dfs 查看 所有 上傳 運行

* 檔操作

* 查看目錄檔

* $ hadoop dfs -ls /user/cl

*

* 創建檔目錄

* $ hadoop dfs -mkdir /user/cl/temp

*

* HTTP://www.aliyun.com/zixun/aggregation/18137.html">刪除檔

* $ hadoop dfs -rm /user/cl/temp/a.txt

*

* 刪除目錄與目錄下所有檔

* $ hadoop dfs -rmr /user/cl/temp

*

* 上傳檔

* 上傳一個本機/home/cl/local.txt到hdfs中/user/cl/temp目錄下

* $ hadoop dfs -put /home/cl/local.txt /user/cl/temp

*

* 下載檔案

* 下載hdfs中/user/cl/temp目錄下的hdfs.txt檔到本機/home/cl/中

* $ hadoop dfs -get /user/cl/temp/hdfs.txt /home/cl

*

* 查看檔

* $ hadoop dfs –cat /home/cl/hdfs.txt

*

* Job操作

* 提交MapReduce Job, Hadoop所有的MapReduce Job都是一個jar包

* $ hadoop jar <local-jar-file> <java-class> <hdfs-input-file> <hdfs-output-dir>

* $ hadoop jar sandbox-mapred-0.0.20.jar sandbox.mapred.WordCountJob /user/cl/input.dat /user/cl/outputdir

*

* 殺死某個正在運行的Job

* 假設Job_Id為:job_201207121738_0001

* $ hadoop job -kill job_201207121738_0001

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.