웹사이트 robots.txt 사용 하 여에서 일반적인 실수

출처: 인터넷
작성자: 사용자

중간 트랜잭션 http://www.aliyun.com/zixun/aggregation/6858.html "> seo 진단 Taobao 게스트 클라우드 호스트 기술 홀

몇 일 전에 쓴 오해의 규칙의 robots.txt 바이 소개 하 고 로봇 도구를 사용 하 여 Google의 오해의 여러 robots.txt 파일 규칙을 도입 하 고 실제로 발견 다음 보다 더 많은 사람들이 있다는 것, 오해에 대 한 관심을 지불 하지 않습니다.

오늘, robots.txt 실제 사용의 일반적인 함정:

신화 1입니다. 허용 금지 보다는 더 많은 것 포함 하 고 위치는 거부 앞 이다.

예를 들어 많은 사람들이이 작성:

사용자 에이전트: *

허용: /

금지: / 무 루 /

이 사이트를 제외 하 고/무 루/아래 크롤링할 모든 거미 모든 페이지의 URL, 크롤링/무 루/모든 금지 Url 아래.

검색 엔진 스파이더는 실패 하는 두 번째 명령 아래로 위에서 규칙을 실행 합니다. 즉, 그것은 금지를 크롤 링 의/무 루/디렉터리. 정확한 것은 그 허용 해야 허용, 그래서 그것은 적용 됩니다.

신화 2입니다. 금지 명령 및 허용 명령 슬래시로 시작 하지 않으면 "/".

이것은 또한 사람이 쓰기 disallow:123.html, 이것은 효과가 같은 무시 하기 쉬운입니다. 슬래시 "/" 파일의 루트 디렉토리의 위치, 하지로 단어, 자연 확인할 수 없습니다 어떤 URL 인지, 그래서 그것이 잘못.

올바른이 파일을 disallow:/123.html, screen/123.html 하려면에서 해야,이 규칙 적용 수 있습니다.

신화 3. 마스크 디렉터리 따르지 슬래시 "/".

즉, 예를 들어 크롤링/무 루/이 디렉토리를 차단 하 고, 어떤 사람들 쓰기 허용 안 함: / 무 루. 그래서 바로 무엇입니까?

작성 하는 첫 번째 방법은 (허용 안 함: / 무 루) 모든 Url/무 루 아래 마스크입니다 /, 하지만 그것은를 시작 모든 페이지 like/mulu123.html 마스크 / 무 루, 같은 효과 허용 안 함: / 무 루 *.

올바른 접근은 디렉터리 화면 하려면 슬래시가지고 해야 합니다 끝에 "/".

평온한 블로그에서이 문서의 주소를 지정 하십시오 무단 전재: http://liboseo.com/1193.html

재발행 소스와 링크를 표시 하시기 바랍니다!

관련 문서

연락처

이 페이지의 내용은 인터넷에서 가져온 것이므로 Alibaba Cloud의 공식 의견이 아닙니다.이 페이지에서 언급 된 제품 및 서비스는 Alibaba Cloud와는 관련이 없으므로이 페이지의 내용이 골칫거리 인 경우 저희에게 알려주십시오. 우리는 5 일 근무일 이내에 이메일을 처리 할 것입니다.

커뮤니티에서 표절 사례를 발견한 경우 info-contact@alibabacloud.com 으로 관련 증거를 첨부하여 이메일을 보내주시기 바랍니다. 당사 직원이 영업일 기준 5일 내에 연락 드리도록 하겠습니다.

A Free Trial That Lets You Build Big!

Start building with 50+ products and up to 12 months usage for Elastic Compute Service

  • Sales Support

    1 on 1 presale consultation

  • After-Sales Support

    24/7 Technical Support 6 Free Tickets per Quarter Faster Response

  • Alibaba Cloud offers highly flexible support services tailored to meet your exact needs.