Hadoop DFS 일반적인 명령줄

출처: 인터넷
작성자: 사용자
키워드: DFS 보기 실행 모두 업로드

* 파일 작업

카탈로그 파일을 볼

* $ Hadoop DFS-LS/사용자/CL

*

파일 디렉터리를 만들

* $ Hadoop dfs mkdir/사용자/cl/온도

*

* http://www.aliyun.com/zixun/aggregation/18137.html > 파일 삭제

* $ Hadoop dfs-rm/user/cl/temp/a.txt

*

디렉터리 및 디렉터리의 모든 파일을 삭제

* $ Hadoop dfs rmr/사용자/cl/온도

*

파일을 업로드

* HDFs/사용자/cl/temp 디렉터리에 있는 native/home/cl/local.txt 업로드

* $ Hadoop dfs-put/home/cl/local.txt/user/cl/temp

*

파일을 다운로드

* 기본/가정/cl HDFs에 hdfs.txt 파일에서 / 사용자/cl/temp 디렉터리 다운로드 /

* $ Hadoop DFS-GET/USER/CL/TEMP/HDFS.TXT/HOME/CL

*

* 보기 파일

* $ Hadoop dfs–cat/home/cl/hdfs.txt

*

* 작업 작업

MapReduce 작업, Hadoop를 제출 모든 MapReduce 작업은 jar 패키지

* $ Hadoop 항아리 < 로컬-jar 파일 >< 자바 클래스 >< hdfs-입력-파일 >< hdfs-출력-dir >

* $ Hadoop 항아리 샌드 박스-mapred-0.0.20.jar Sandbox.mapred.wordcountjob/user/cl/input.dat/user/cl/outputdir

*

* 실행 중인 작업을 죽 일

* 가정 job_id는: job_201207121738_0001

* $ Hadoop 작업-죽 일 job_201207121738_0001

관련 문서

연락처

이 페이지의 내용은 인터넷에서 가져온 것이므로 Alibaba Cloud의 공식 의견이 아닙니다.이 페이지에서 언급 된 제품 및 서비스는 Alibaba Cloud와는 관련이 없으므로이 페이지의 내용이 골칫거리 인 경우 저희에게 알려주십시오. 우리는 5 일 근무일 이내에 이메일을 처리 할 것입니다.

커뮤니티에서 표절 사례를 발견한 경우 info-contact@alibabacloud.com 으로 관련 증거를 첨부하여 이메일을 보내주시기 바랍니다. 당사 직원이 영업일 기준 5일 내에 연락 드리도록 하겠습니다.

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.