하 둡 파일 시스템 셸 명령

출처: 인터넷
작성자: 사용자
키워드: nbsp 방법 DFS 실패를 사용 하 여 예제

파일 시스템 (FS) 셸 명령을 호출 하는 것은 빈/hadoop FS < args >의 형태로 사용 해야 합니다. FS 셸 명령의 모든 매개 변수로 URI 경로 사용합니다. URI 형식은 Scheme://authority/path입니다. HDFs 파일 시스템에 대 한 계획은 HDFS, 로컬 파일 시스템에 대 한 스키마 파일입니다. 제도 및 기관 매개 변수는 선택 사항, 그리고 지정 되지 않은 경우는 구성에 지정 된 기본 스키마 사용 됩니다. HDFs 파일 또는 디렉터리 같은 로/부모/자식 수 www.aliyun.com/zixun/aggregation/11696.html:// hdfs://http로 표시 "> namenode: Namenodeport/부모/자식, 또는 간단 하 게/부모/자식 (가정 구성 파일에서 기본값은 Namenode:namenodeport입니다). 대부분 FS 셸 명령의 동작은 해당 유닉스 셸 명령을 비슷합니다 그리고 차이점은 아래에 표시 된 명령은 자세한 사용 하는 경우. 오류 메시지 출력을 stderr, 이며 기타 정보를 stdout 내보내집니다.

고양이

사용 하는 방법: Hadoop fs-고양이 uri [uri...]

경로 stdout에 출력 파일의 내용을 지정 합니다.

예:

Hadoop fs-고양이 Hdfs://host1:port1 / file1 Hdfs://host2:port2 / file2

Hadoop Fs-고양이 File:///file3/user/hadoop/file4

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

Chgrp

사용 하는 방법: Hadoop fs-chgrp [-R] 그룹 uri [uri...] 그룹 파일의 연결을 변경 합니다. 와-r, 디렉터리 구조를 통해 변경 재귀적으로 확인. 사용자는 파일, 또는 다른 슈퍼 사용자의 소유자 여야 합니다. 추가 정보는 사용 권한을 사용자 가이드. ->

파일이 속한 그룹을 변경 합니다. -R을 사용 하 여 재귀 디렉터리 구조에서를 발생 합니다. 명령의 사용자 파일 또는 수퍼유저의 소유자 여야 합니다. 자세한 내용은 HDFs 권한을 사용자 가이드를 참조.

chmod

사용 하는 방법: Hadoop fs-chmod [-r] < 모드 [모드],... | octalmode > uri [uri...]

파일 권한을 변경 합니다. -R을 사용 하 여 재귀 디렉터리 구조에서를 발생 합니다. 명령의 사용자 파일 또는 수퍼유저의 소유자 여야 합니다. 자세한 내용은 HDFs 권한을 사용자 가이드를 참조.

Chown

사용 하는 방법: Hadoop Fs-chown [-R] [소유자] [: [그룹]] uri [URI]

파일의 소유자를 변경 합니다. -R을 사용 하 여 재귀 디렉터리 구조에서를 발생 합니다. 명령의 사용자 수퍼유저 이어야 합니다. 자세한 내용은 HDFs 권한을 사용자 가이드를 참조.

Copyfromlocal

사용 하는 방법: Hadoop fs-copyfromlocal < localsrc > URI

자격 이외에 소스 경로 로컬 파일, 그것은 넣어 명령을 비슷합니다.

Copytolocal

사용 하는 방법: Hadoop fs-copytolocal [-IGNORECRC] [-CRC] URI < localdst >

자격 이외에 대상 경로 로컬 파일, 그것은 Get 명령을 비슷합니다.

cp

사용 하는 방법: Hadoop fs-cp uri [uri...] < dest >

대상 경로에 소스 경로에서 파일을 복사합니다. 이 명령은 어느 시점에서 대상 경로 디렉터리 여야 여러 소스 경로 수 있습니다.

예:

Hadoop fs-cp/사용자/둡/file1/사용자/둡/file2

Hadoop Fs-cp/사용자/둡/file1/사용자/둡/file2/사용자/둡/dir

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

사용 하는 방법: Hadoop fs 뒤 uri [uri...]

하나의 파일을 지정 하는 경우, 디렉터리 또는 파일의 크기에 모든 파일의 크기를 표시 합니다.

예:

Hadoop fs-뒤/사용자/둡/d i r 1/사용자/둡/file1 Hdfs://host:port/사용자/둡/d i r 1

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

Dus

사용 하는 방법: Hadoop fs-dus < args >

파일의 크기를 표시합니다.

삭제

사용 하는 방법: Hadoop fs 삭제

휴지통 비우기. HDFs 휴지통 기능에 대 한 자세한 내용은 디자인 설명서를 참조 하십시오.

가져오기

사용 하는 방법: Hadoop fs-get [-IGNORECRC] [-CRC] < src >< localdst >

로컬 파일 시스템에 파일을 복사 합니다. IGNORECRC 옵션으로 CRC 오류가 발생 한 파일을 복사할 수 있습니다. 파일 및 CRC 정보를 복사 하는 CRC 옵션을 사용 합니다.

예:

Hadoop fs-get/사용자/둡/파일 LocalFile

Hadoop fs-get hdfs://host:port/사용자/둡/파일 LocalFile

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

Getmerge

사용 하는 방법: Hadoop fs-getmerge < src >< localdst > [ADDNL]

소스 디렉터리 및 대상 파일을 입력으로 하 고 로컬 대상 파일에 소스 디렉터리에서 모든 파일을 연결 합니다. ADDNL 선택적 이며 각 파일의 끝에 줄 바꿈 문자를 추가 지정 하는 데 사용 됩니다.

ls

사용 하는 방법: Hadoop fs-ls < args >

그것은 파일, 파일 정보는 다음과 같은 형식으로 반환 됩니다.

파일 이름 < 사본의 수 > 파일 크기 수정 날짜 수정 시간 권리 사용자 ID 그룹 ID

그것은 디렉토리, 유닉스에서 즉시 하위 폴더의 목록을 반환 합니다. 카탈로그에 대 한 정보 반환 목록은 다음과 같습니다.

디렉터리 이름 < dir > 수정 날짜 수정 시간 권리 사용자 ID 그룹 ID

예:

Hadoop fs-ls/사용자/둡/file1/사용자/둡/file2 Hdfs://host:port/사용자/둡/d i r 1/nonexistentfile

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

Lsr

사용 하는 방법: Hadoop FS-LSR < args >

LS 명령의 재귀 버전입니다. Ls-r을 유닉스와 유사 합니다.

mkdir

사용 하는 방법: Hadoop fs-mkdir < 경로 >

매개 변수로 path로 지정 된 URI를 소요 하 고 디렉터리를 만듭니다. 동작은 유닉스 mkdir-p, 경로에 상위 디렉터리의 수준을 만드는 비슷합니다.

예:

Hadoop FS-MKDIR/사용자/둡/d i r 1/사용자/둡/d i r 2

Hadoop Fs-mkdir Hdfs://host1:port1/사용자/둡/dir Hdfs://host2:port2/사용자/둡/dir

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

Movefromlocal

사용 하는 방법: Dfs-movefromlocal < src >< dst >

"구현 되지 않음" 메시지를 출력 합니다.

mv

사용 하는 방법: Hadoop fs-mv uri [uri...] < dest >

대상 경로에 소스 경로에서 파일을 이동합니다. 이 명령은 어느 시점에서 대상 경로 디렉터리 여야 여러 소스 경로 수 있습니다. 다른 파일 시스템 간에 파일을 이동 하는 것은 허용 되지 않습니다.

예:

Hadoop fs-mv/사용자/둡/file1/사용자/둡/file2

Hadoop fs-mv hdfs://host:port / file1 hdfs://host:port / file2 hdfs://host:port / file3 hdfs://host:port / d i r 1

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

넣어

사용 하는 방법: Hadoop fs-넣어 < localsrc >... < dst >

단일 또는 다중 소스 경로 대상 파일 시스템에 로컬 파일 시스템에서. 표준 입력 으로부터 읽기 입력 대상 파일 시스템에 쓰기도 지원 됩니다.

Hadoop fs-put Localfile/사용자/둡/hadoopfile

Hadoop fs-하다 Localfile1 Localfile2/사용자/둡/hadoopdir

Hadoop fs put LocalFile Hdfs://host:port/둡/hadoopfile

Hadoop fs-넣어-hdfs://host:port/둡/hadoopfile

표준 입력에서 입력을 읽습니다.

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

Rm

사용 하는 방법: Hadoop fs-rm uri [uri...]

지정된 된 파일을 삭제합니다. 비어 있지 않은 디렉터리와 파일을 삭제 합니다. RMR 명령을 재귀 삭제를 참조 하십시오.

예:

Hadoop fs-rm Hdfs://host:port/파일/사용자/둡/emptydir

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

RMr

사용 하는 방법: Hadoop fs rmr uri [uri...]

삭제의 재귀 버전입니다.

예:

Hadoop Fs-rmr/사용자/둡/dir

Hadoop FS-RMR Hdfs://host:port/사용자/둡/dir

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

Setrep

사용 하는 방법: Hadoop Fs-setrep [-R] < 경로 >

파일의 copy 요소를 변경 합니다. -R 옵션을 사용을 반복적으로 디렉터리에 모든 파일의 복사 계수를 변경.

예:

Hadoop fs-setrep-w 3-r/사용자/둡/d i r 1

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

합계

사용 하는 방법: Hadoop fs 합계 uri [uri...]

지정된 된 경로 대 한 통계를 반환합니다.

예:

Hadoop fs 합계 경로

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

꼬리

사용 하는 방법: Hadoop Fs-꼬리 [-f] URI

파일의 출력 1 K 바이트 stdout에 꼬리. -F 옵션을 지원 하 고 동작은 UNIX와 일치.

예:

Hadoop Fs-꼬리 경로

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

테스트

사용 하는 방법: Hadoop fs-테스트-[ezd] URI

옵션:

-전자 파일의 존재를 확인합니다. 있는 경우 0을 반환 합니다.

-Z 파일 0 바이트 인지 확인 합니다. 그렇다면, 0을 반환 합니다.

-D 디렉터리 경로가 경우 1 또는 0을 반환 합니다.

Hadoop fs-테스트-e 파일 이름 예:

텍스트

사용 하는 방법: Hadoop fs-텍스트 < src >

텍스트 형식에서 소스 파일을 출력 합니다. 허용 된 형식은 zip 및 Textrecordinputstream입니다.

Touchz

사용 하는 방법: Hadoop fs touchz uri [uri...]

0 바이트 빈 파일을 만듭니다.

예:

Hadoop touchz 경로

반환 값:

성공적으로 0, 실패 반환-1을 반환합니다.

관련 문서

연락처

이 페이지의 내용은 인터넷에서 가져온 것이므로 Alibaba Cloud의 공식 의견이 아닙니다.이 페이지에서 언급 된 제품 및 서비스는 Alibaba Cloud와는 관련이 없으므로이 페이지의 내용이 골칫거리 인 경우 저희에게 알려주십시오. 우리는 5 일 근무일 이내에 이메일을 처리 할 것입니다.

커뮤니티에서 표절 사례를 발견한 경우 info-contact@alibabacloud.com 으로 관련 증거를 첨부하여 이메일을 보내주시기 바랍니다. 당사 직원이 영업일 기준 5일 내에 연락 드리도록 하겠습니다.

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.