hadoop入門:hadoop使用shell命令總結

來源:互聯網
上載者:User

標籤:des   http   io   os   使用   ar   for   檔案   sp   

第一部分:Hadoop Bin
後面根據項目的實際需要Hadoop Bin  包括:
Hadoop  hadoop的Shell
hadoop-config.sh 它的作用是對一些變數進行賦值
     HADOOP_HOME(hadoop的安裝目錄)。
     HADOOP_CONF_DIR(hadoop的設定檔目錄)。HADOOP_SLAVES(--hosts指定的檔案的地址)
hadoop-daemon.sh 單節點啟動
hadoop-daemons.sh 啟動slaves.sh和hadoop-daemon.sh
start-all.sh    啟動HDFS與MapReduce
start-balancer.sh 啟動Hadoop的負載平衡
start-dfs.sh  啟動HDFS
start-jobhistoryserver.sh
start-mapred.sh  啟動MapReduce
來進行調整。
後面根據項目的實際需要Hadoop Bin  包括:
Hadoop  hadoop的Shell
hadoop-config.sh 它的作用是對一些變數進行賦值
     HADOOP_HOME(hadoop的安裝目錄)。
     HADOOP_CONF_DIR(hadoop的設定檔目錄)。
     HADOOP_SLAVES(--hosts指定的檔案的地址)
hadoop-daemon.sh 單節點啟動
hadoop-daemons.sh 在所有slaves上運行相同的指令碼hadoop-daemon.sh
start-all.sh    啟動HDFS與MapReduce
start-balancer.sh 啟動Hadoop的負載平衡
start-dfs.sh  啟動HDFS
start-jobhistoryserver.sh
start-mapred.sh  啟動MapReduce
來進行調整。
stop-all.sh   停止HDFS與MapReduce
stop-balancer.sh 停止做負載平衡
stop-dfs.sh   停止HDFS
stop-jobhistoryserver.sh 停止Job追蹤
stop-mapred.sh 停止MapReduce
task-controller
第二部分:Hadoop Shell 基本操作

nHadoop shell
  包括:

  1. namenode -format     format the DFS filesystem
  2. secondarynamenode    run the DFS secondary namenode
  3. namenode             run the DFS namenode
  4. datanode             run a DFS datanode
  5. dfsadmin             run a DFS admin client
  6. mradmin              run a Map-Reduce admin client
  7. fsck                 run a DFS filesystem checking utility
  8. fs                   run a generic filesystem user client
  9. balancer             run a cluster balancing utility
  10. fetchdt              fetch  delegation token from the NameNode
  11. jobtracker           run the MapReduce job Tracker node
  12. pipes                run a Pipes job
  13. tasktracker          run a MapReduce task Tracker node
  14. historyserver        run job history servers as a standalone daemon
  15. job                  manipulate MapReduce jobs
  16. queue                get information regarding JobQueues
  17. version              print the version
  18. jar <jar>            run a jar file
  19. distcp <srcurl> <desturl> copy file or directories recursively
  20. archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
  21. classpath            prints the class path needed to get the
  22.                            Hadoop jar and the required libraries
  23. daemonlog            get/set the log level for each daemon
  24. or
  25. CLASSNAME            run the class named CLASSNAME
複製代碼

推薦文章:
Hadoop Shell命令字典(可收藏)

文章轉自:http://www.aboutyun.com/thread-6742-1-1.html

 

hadoop入門:hadoop使用shell命令總結

相關文章

聯繫我們

該頁面正文內容均來源於網絡整理,並不代表阿里雲官方的觀點,該頁面所提到的產品和服務也與阿里云無關,如果該頁面內容對您造成了困擾,歡迎寫郵件給我們,收到郵件我們將在5個工作日內處理。

如果您發現本社區中有涉嫌抄襲的內容,歡迎發送郵件至: info-contact@alibabacloud.com 進行舉報並提供相關證據,工作人員會在 5 個工作天內聯絡您,一經查實,本站將立刻刪除涉嫌侵權內容。

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.