* 파일 작업
카탈로그 파일을 볼
* $ Hadoop DFS-LS/사용자/CL
*
파일 디렉터리를 만들
* $ Hadoop dfs mkdir/사용자/cl/온도
*
* http://www.aliyun.com/zixun/aggregation/18137.html > 파일 삭제
* $ Hadoop dfs-rm/user/cl/temp/a.txt
*
디렉터리 및 디렉터리의 모든 파일을 삭제
* $ Hadoop dfs rmr/사용자/cl/온도
*
파일을 업로드
* HDFs/사용자/cl/temp 디렉터리에 있는 native/home/cl/local.txt 업로드
* $ Hadoop dfs-put/home/cl/local.txt/user/cl/temp
*
파일을 다운로드
* 기본/가정/cl HDFs에 hdfs.txt 파일에서 / 사용자/cl/temp 디렉터리 다운로드 /
* $ Hadoop DFS-GET/USER/CL/TEMP/HDFS.TXT/HOME/CL
*
* 보기 파일
* $ Hadoop dfs–cat/home/cl/hdfs.txt
*
* 작업 작업
MapReduce 작업, Hadoop를 제출 모든 MapReduce 작업은 jar 패키지
* $ Hadoop 항아리 < 로컬-jar 파일 >< 자바 클래스 >< hdfs-입력-파일 >< hdfs-출력-dir >
* $ Hadoop 항아리 샌드 박스-mapred-0.0.20.jar Sandbox.mapred.wordcountjob/user/cl/input.dat/user/cl/outputdir
*
* 실행 중인 작업을 죽 일
* 가정 job_id는: job_201207121738_0001
* $ Hadoop 작업-죽 일 job_201207121738_0001