파일 시스템 (FS) 셸 명령을 호출 하는 것은 빈/hadoop FS < args >의 형태로 사용 해야 합니다. FS 셸 명령의 모든 매개 변수로 URI 경로 사용합니다. URI 형식은 Scheme://authority/path입니다. HDFs 파일 시스템에 대 한 계획은 HDFS, 로컬 파일 시스템에 대 한 스키마 파일입니다. 제도 및 기관 매개 변수는 선택 사항, 그리고 지정 되지 않은 경우는 구성에 지정 된 기본 스키마 사용 됩니다. HDFs 파일 또는 디렉터리 같은 로/부모/자식 수 www.aliyun.com/zixun/aggregation/11696.html:// hdfs://http로 표시 "> namenode: Namenodeport/부모/자식, 또는 간단 하 게/부모/자식 (가정 구성 파일에서 기본값은 Namenode:namenodeport입니다). 대부분 FS 셸 명령의 동작은 해당 유닉스 셸 명령을 비슷합니다 그리고 차이점은 아래에 표시 된 명령은 자세한 사용 하는 경우. 오류 메시지 출력을 stderr, 이며 기타 정보를 stdout 내보내집니다.
고양이
사용 하는 방법: Hadoop fs-고양이 uri [uri...]
경로 stdout에 출력 파일의 내용을 지정 합니다.
예:
Hadoop fs-고양이 Hdfs://host1:port1 / file1 Hdfs://host2:port2 / file2
Hadoop Fs-고양이 File:///file3/user/hadoop/file4
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
Chgrp
사용 하는 방법: Hadoop fs-chgrp [-R] 그룹 uri [uri...] 그룹 파일의 연결을 변경 합니다. 와-r, 디렉터리 구조를 통해 변경 재귀적으로 확인. 사용자는 파일, 또는 다른 슈퍼 사용자의 소유자 여야 합니다. 추가 정보는 사용 권한을 사용자 가이드. ->
파일이 속한 그룹을 변경 합니다. -R을 사용 하 여 재귀 디렉터리 구조에서를 발생 합니다. 명령의 사용자 파일 또는 수퍼유저의 소유자 여야 합니다. 자세한 내용은 HDFs 권한을 사용자 가이드를 참조.
chmod
사용 하는 방법: Hadoop fs-chmod [-r] < 모드 [모드],... | octalmode > uri [uri...]
파일 권한을 변경 합니다. -R을 사용 하 여 재귀 디렉터리 구조에서를 발생 합니다. 명령의 사용자 파일 또는 수퍼유저의 소유자 여야 합니다. 자세한 내용은 HDFs 권한을 사용자 가이드를 참조.
Chown
사용 하는 방법: Hadoop Fs-chown [-R] [소유자] [: [그룹]] uri [URI]
파일의 소유자를 변경 합니다. -R을 사용 하 여 재귀 디렉터리 구조에서를 발생 합니다. 명령의 사용자 수퍼유저 이어야 합니다. 자세한 내용은 HDFs 권한을 사용자 가이드를 참조.
Copyfromlocal
사용 하는 방법: Hadoop fs-copyfromlocal < localsrc > URI
자격 이외에 소스 경로 로컬 파일, 그것은 넣어 명령을 비슷합니다.
Copytolocal
사용 하는 방법: Hadoop fs-copytolocal [-IGNORECRC] [-CRC] URI < localdst >
자격 이외에 대상 경로 로컬 파일, 그것은 Get 명령을 비슷합니다.
cp
사용 하는 방법: Hadoop fs-cp uri [uri...] < dest >
대상 경로에 소스 경로에서 파일을 복사합니다. 이 명령은 어느 시점에서 대상 경로 디렉터리 여야 여러 소스 경로 수 있습니다.
예:
Hadoop fs-cp/사용자/둡/file1/사용자/둡/file2
Hadoop Fs-cp/사용자/둡/file1/사용자/둡/file2/사용자/둡/dir
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
뒤
사용 하는 방법: Hadoop fs 뒤 uri [uri...]
하나의 파일을 지정 하는 경우, 디렉터리 또는 파일의 크기에 모든 파일의 크기를 표시 합니다.
예:
Hadoop fs-뒤/사용자/둡/d i r 1/사용자/둡/file1 Hdfs://host:port/사용자/둡/d i r 1
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
Dus
사용 하는 방법: Hadoop fs-dus < args >
파일의 크기를 표시합니다.
삭제
사용 하는 방법: Hadoop fs 삭제
휴지통 비우기. HDFs 휴지통 기능에 대 한 자세한 내용은 디자인 설명서를 참조 하십시오.
가져오기
사용 하는 방법: Hadoop fs-get [-IGNORECRC] [-CRC] < src >< localdst >
로컬 파일 시스템에 파일을 복사 합니다. IGNORECRC 옵션으로 CRC 오류가 발생 한 파일을 복사할 수 있습니다. 파일 및 CRC 정보를 복사 하는 CRC 옵션을 사용 합니다.
예:
Hadoop fs-get/사용자/둡/파일 LocalFile
Hadoop fs-get hdfs://host:port/사용자/둡/파일 LocalFile
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
Getmerge
사용 하는 방법: Hadoop fs-getmerge < src >< localdst > [ADDNL]
소스 디렉터리 및 대상 파일을 입력으로 하 고 로컬 대상 파일에 소스 디렉터리에서 모든 파일을 연결 합니다. ADDNL 선택적 이며 각 파일의 끝에 줄 바꿈 문자를 추가 지정 하는 데 사용 됩니다.
ls
사용 하는 방법: Hadoop fs-ls < args >
그것은 파일, 파일 정보는 다음과 같은 형식으로 반환 됩니다.
파일 이름 < 사본의 수 > 파일 크기 수정 날짜 수정 시간 권리 사용자 ID 그룹 ID
그것은 디렉토리, 유닉스에서 즉시 하위 폴더의 목록을 반환 합니다. 카탈로그에 대 한 정보 반환 목록은 다음과 같습니다.
디렉터리 이름 < dir > 수정 날짜 수정 시간 권리 사용자 ID 그룹 ID
예:
Hadoop fs-ls/사용자/둡/file1/사용자/둡/file2 Hdfs://host:port/사용자/둡/d i r 1/nonexistentfile
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
Lsr
사용 하는 방법: Hadoop FS-LSR < args >
LS 명령의 재귀 버전입니다. Ls-r을 유닉스와 유사 합니다.
mkdir
사용 하는 방법: Hadoop fs-mkdir < 경로 >
매개 변수로 path로 지정 된 URI를 소요 하 고 디렉터리를 만듭니다. 동작은 유닉스 mkdir-p, 경로에 상위 디렉터리의 수준을 만드는 비슷합니다.
예:
Hadoop FS-MKDIR/사용자/둡/d i r 1/사용자/둡/d i r 2
Hadoop Fs-mkdir Hdfs://host1:port1/사용자/둡/dir Hdfs://host2:port2/사용자/둡/dir
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
Movefromlocal
사용 하는 방법: Dfs-movefromlocal < src >< dst >
"구현 되지 않음" 메시지를 출력 합니다.
mv
사용 하는 방법: Hadoop fs-mv uri [uri...] < dest >
대상 경로에 소스 경로에서 파일을 이동합니다. 이 명령은 어느 시점에서 대상 경로 디렉터리 여야 여러 소스 경로 수 있습니다. 다른 파일 시스템 간에 파일을 이동 하는 것은 허용 되지 않습니다.
예:
Hadoop fs-mv/사용자/둡/file1/사용자/둡/file2
Hadoop fs-mv hdfs://host:port / file1 hdfs://host:port / file2 hdfs://host:port / file3 hdfs://host:port / d i r 1
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
넣어
사용 하는 방법: Hadoop fs-넣어 < localsrc >... < dst >
단일 또는 다중 소스 경로 대상 파일 시스템에 로컬 파일 시스템에서. 표준 입력 으로부터 읽기 입력 대상 파일 시스템에 쓰기도 지원 됩니다.
Hadoop fs-put Localfile/사용자/둡/hadoopfile
Hadoop fs-하다 Localfile1 Localfile2/사용자/둡/hadoopdir
Hadoop fs put LocalFile Hdfs://host:port/둡/hadoopfile
Hadoop fs-넣어-hdfs://host:port/둡/hadoopfile
표준 입력에서 입력을 읽습니다.
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
Rm
사용 하는 방법: Hadoop fs-rm uri [uri...]
지정된 된 파일을 삭제합니다. 비어 있지 않은 디렉터리와 파일을 삭제 합니다. RMR 명령을 재귀 삭제를 참조 하십시오.
예:
Hadoop fs-rm Hdfs://host:port/파일/사용자/둡/emptydir
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
RMr
사용 하는 방법: Hadoop fs rmr uri [uri...]
삭제의 재귀 버전입니다.
예:
Hadoop Fs-rmr/사용자/둡/dir
Hadoop FS-RMR Hdfs://host:port/사용자/둡/dir
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
Setrep
사용 하는 방법: Hadoop Fs-setrep [-R] < 경로 >
파일의 copy 요소를 변경 합니다. -R 옵션을 사용을 반복적으로 디렉터리에 모든 파일의 복사 계수를 변경.
예:
Hadoop fs-setrep-w 3-r/사용자/둡/d i r 1
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
합계
사용 하는 방법: Hadoop fs 합계 uri [uri...]
지정된 된 경로 대 한 통계를 반환합니다.
예:
Hadoop fs 합계 경로
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
꼬리
사용 하는 방법: Hadoop Fs-꼬리 [-f] URI
파일의 출력 1 K 바이트 stdout에 꼬리. -F 옵션을 지원 하 고 동작은 UNIX와 일치.
예:
Hadoop Fs-꼬리 경로
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.
테스트
사용 하는 방법: Hadoop fs-테스트-[ezd] URI
옵션:
-전자 파일의 존재를 확인합니다. 있는 경우 0을 반환 합니다.
-Z 파일 0 바이트 인지 확인 합니다. 그렇다면, 0을 반환 합니다.
-D 디렉터리 경로가 경우 1 또는 0을 반환 합니다.
Hadoop fs-테스트-e 파일 이름 예:
텍스트
사용 하는 방법: Hadoop fs-텍스트 < src >
텍스트 형식에서 소스 파일을 출력 합니다. 허용 된 형식은 zip 및 Textrecordinputstream입니다.
Touchz
사용 하는 방법: Hadoop fs touchz uri [uri...]
0 바이트 빈 파일을 만듭니다.
예:
Hadoop touchz 경로
반환 값:
성공적으로 0, 실패 반환-1을 반환합니다.