MPICH2 병렬 및 분산 기존 하드웨어 및 소프트웨어 아키텍처에서 대용량 데이터의 처리에 대 한 플랫폼을 제공 합니다. 이 문서는 고성능 분산된 병렬 컴퓨팅 환경 리눅스 시스템에서 MPICH2에 기반을 구축 하는 방법을 설명 합니다.
MPI (메시지 전달 인터페이스)는 일련의 프로그래밍 MPI-1 및 MPI-2 두 가지 버전으로 현재 분산된 환경에서 프로세스 간 통신을 위한 인터페이스를 정의 하는 MPI 위원회에 의해 개발 된 메시징 표준입니다. MPICH2는 MPI의 구체적인 구현, AIX, 리눅스 (IA32 및 x86-64), 맥 os를 포함 하 여 높은 성능을 보장 하는 동안 / x (파워 Pc와 인텔), 이동성의 상부를 유지 하는 MPICH2 Solaris (32-비트 및 64 고 창, 그리고 많은 다른 플랫폼입니다. MPICH2은 오픈 소스 프로젝트.
시스템 및 http://www.aliyun.com/zixun/aggregation/16327.html를 준비 "> 네트워크 환경
이 문서에 하드웨어와 소프트웨어 시스템은 다음과 같습니다.
3 64 비트 Red Hat 엔터프라이즈 리눅스 5.5 기계
LAN에에서 설치 됩니다. 3 컴퓨터의 호스트명은 각각 S1, S2 및 S3. 사용 합니다 s 1 서버, S2 및 S3 MPICH2 환경에서 MPICH2 환경에서 노동자. Python2.6, SSH 서비스 및 NFS 서비스는 이미 리눅스 시스템에 설치 됩니다.
단계 1 SSH 구성
MPICH2 서버와 작업자 비밀 번호 없는 SSH 로그인을 구성 하는 것이 편리 하므로 SSH,으로 백그라운드에서 작동 하는 다른 컴퓨터에서 실행 될 수 있는 분산된 컴퓨팅 환경에서 프로세스를 관리 하기 위한 일련을의 명령 제공 합니다.
MPICH2 운영 체제에서 제공 하는 공유 파일 시스템 서버와 여러 작업자 간의 데이터를 공유할 필요가 그래서 통합된 파일 시스템을 제공 하지 않습니다. 여기에 NFS의 예가입니다.
먼저 서버 S1에 NFS 공유 디렉터리를 설정:
공유 디렉터리를 만듭니다: [root@s1 ~] # Mkdir/공유는 다음 구성에서 / 등/수출 추가 NFS 공유 디렉터리 목록에 디렉터리를 추가: 공유 / * (동기화, rw, no_root_squash) s 1에 이동 NFS 서비스: [ROOT@S1 ~] # 서비스 NFS 시작
이 페이지의 내용은 인터넷에서 가져온 것이므로 Alibaba Cloud의 공식 의견이 아닙니다.이 페이지에서 언급 된 제품 및 서비스는 Alibaba Cloud와는 관련이 없으므로이
페이지의 내용이 골칫거리 인 경우 저희에게 알려주십시오. 우리는 5 일 근무일 이내에 이메일을 처리 할 것입니다.
커뮤니티에서 표절 사례를 발견한 경우
info-contact@alibabacloud.com
으로 관련 증거를 첨부하여 이메일을 보내주시기 바랍니다. 당사 직원이 영업일 기준 5일 내에 연락 드리도록 하겠습니다.