수영, 죄 마스터 앞 Robots.txt 파일을 만드는 방법을 초보자 가르쳐!

출처: 인터넷
작성자: 사용자

중간 트랜잭션 http://www.aliyun.com/zixun/aggregation/6858.html "> seo 진단 Taobao 게스트 클라우드 호스트 기술 홀

Robots.txt 파일을 만들려면 어떻게 해야 합니까?
텍스트 편집기에서이 파일을 만들 수 있습니다. 파일을 ASCII로 인코딩된 텍스트 파일, HTML 파일이 아닌 이어야 한다. 파일 이름은 대/소문자를 사용 해야 합니다. 두 개의 규칙을 사용 하는 간단한

robots.txt 파일:
(1) 사용자 에이전트:
다음 규칙에 적용 되는 봇 (2) 허용 안 함: 블록
페이지가 두 줄 파일의 항목으로 간주 됩니다. 원하는 만큼 많은 항목을 포함할 수 있습니다. 여러 포함 될 수 있습니다 허용 하는 행과 항목에서 여러
사용자 에이전트. 어떻게 해야

사용자 에이전트 라인에 나열?
사용자 에이전트는 특정 검색 엔진 로버. 네트워크 로버 데이터베이스 일반적인 봇의 수를 나열합니다.
항목 (열 이름)으로 설정 하거나 특정 로버에 적용 되는 (별표 목록)에 의해 모든 로봇에 적용을 설정할 수 있습니다. 모든 로봇에 적용 된 항목 다음 항목을 유사 합니다:

사용자-에이전트: *
Google는 다양 한 다른 봇 (사용자 에이전트)를 사용 하 여. 11510.html에 대 한 로버 "> 네트워크 검색 Googlebot은. Googlebot-모바일 등 다른 봇과 googlebot
이미지를 따라 규칙 Googlebot, 설정 또한 그 특정 로봇에 대 한 추가 규칙을 설정할 수 있습니다. 어떻게 해야

거부 라인에 나열?
차단 페이지 하지 못하도록. 특정 Url 또는 URL을 나열할 수 있습니다 패턴. 항목은 슬래시 (/)로 시작 해야 한다.

전체 웹 사이트를 차단, 앞으로 기울기를 사용 하 여.

허용 안 함: /
디렉터리 및 그것에 모든 콘텐츠를 차단, 디렉터리 이름 뒤 앞으로 기울기를 추가.

허용 안 함: / private_directory/웹 페이지를 차단 하려면
목록 페이지.


Disallow:/private_file.html Url은 대 소문자를 구분 합니다. 예를 들어, disallow:/index.htm http://www.gz-kongtiao.cn/index.htm, 차단 하지만
절편 http://www.gz-kongtiao.cn/index.htm 하지 않습니다.

위의 관련 정보 정리의 내 보기, 도움이 될 수 있도록 노력 하겠습니다!

관련 문서

연락처

이 페이지의 내용은 인터넷에서 가져온 것이므로 Alibaba Cloud의 공식 의견이 아닙니다.이 페이지에서 언급 된 제품 및 서비스는 Alibaba Cloud와는 관련이 없으므로이 페이지의 내용이 골칫거리 인 경우 저희에게 알려주십시오. 우리는 5 일 근무일 이내에 이메일을 처리 할 것입니다.

커뮤니티에서 표절 사례를 발견한 경우 info-contact@alibabacloud.com 으로 관련 증거를 첨부하여 이메일을 보내주시기 바랍니다. 당사 직원이 영업일 기준 5일 내에 연락 드리도록 하겠습니다.

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.