RadarURL
Skip to content
조회 수 1669 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 댓글로 가기 인쇄

Search Quality팀 석인혁, Chao Ma


검색엔진
자신의 사이트를 많은 사람에게 알릴 수 있는 가장 좋은 방법 중 하나입니다. 이를 활용하기에 앞서 고려해야 할 것은 여러분들의 사이트에 있는 정보를 얼마 만큼 외부에 제공할 것인가를 설정하는 일입니다.

만약 여러분의 사이트에 검색엔진을 통해 색인이 생성되지 않도록 하려는 콘텐츠가 있다면, robots.txt 파일을 사용하여 웹을 색인하는 검색엔진 로봇(이하 "검색봇")을 차단하거나 필요한 부분만을 검색엔진에 나타나게 할 수 있습니다. 검색봇은 자동으로 작동하며, 한 사이트의 하위 페이지에 접근하기 전에 먼저 특정 페이지에 대한 접근을 차단하는 robots.txt 파일이 있는지 여부를 확인합니다. 이번 기회를 통하여 여러분들에게 올바르게 robots.txt를 사용하는 방법을 제공하고자 합니다.

robots.txt 의 배치

robots.txt는 HTML 파일이 아닌 일반 텍스트 파일로 도메인의 root에 있어야 하며 반드시 'robots.txt'로 저장되야 합니다. 검색봇은 도메인의 root에 있는 robots.txt 파일만을 체크하기 때문에 하위 디렉토리에 있는 파일은 유효하지 않습니다.

예를 들어 http://www.example.com/robots.txt는 유효한 위치이지만, http://www.example.com/mysite/robots.txt는 유효하지 않습니다.

robots.txt 사용 예제:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/

Disallow: /~name/

robots.txt 파일을 사용하여 전체 웹사이트를 허용/차단하기


전체 웹사아트를 검색엔진이 색인하도록 허용하고자 할 때에는 다음과 같이 robots.txt
일을 추가합니다.
User-agent: *
Disallow:

또 다른 해결 방법으로는 단순하게 robots.txt를 사이트로부터 제거 하는 것입니다.

검색엔진에서 사이트를 삭제하고 향후 어떤 검색봇도 접근하지 못하게 하려면 robots.txt 파일에 다음 내용을 추가합니다.
User-agent: *
Disallow: /

주의) 이 경우 검색봇이 차단되어 사이트가 더이상 검색엔진에 나타나지 않게 됨으로 검색엔진을 통 들어오게 되는 사용자들에게 불이익을 제공하게 됩니다.

각 포트에는 전용 robots.txt 파일이 있어야 합니다. 특히 http와 https 모두를 통해 사용자들에 콘텐츠를 제공하려면 이 두 가지 프로토콜에 대해 각각의 robots.txt 파일이 있어야 합니다.

예를 들어 검색봇을 통해 https 페이지를 제외한 모든 http 페이지에 대한 수집을 허용하려면 다음 robots.txt 파일들을 각의 프로토콜에 사용해야 합니다.

http 프로토콜의 경우
(http://yourserver.co.kr/robots.txt):
User-agent: *
DIsallow:

https 프로토콜의 경우
(https://yourserver.co.kr/robots.txt):

User-agent: *
Disallow: /

robots.txt 파일을 사용하여 페이지 차단하기

예를 들어, 검색봇이 특정 디렉토리(: board )의 모든 페이지를 검색하지 않도록 차단하려면 다음과 같이 robots.txt를 사용 하시면 됩니다.
User-agent: *
Disall
ow: /board/

Googlebot이 특정 형식(: .gif)의 파일을 모두 검색하지 않도록 차단하려면 다음과 같이 robots.txt를 사용 하시면 됩니다.
User-Agent: Googlebot
Disallow: /*.gif$

Googlebot이 ?가 포함된 URL 즉, 도메인 이름으로 시작되거나 임의의 문자열 또는 물음표로 구성된URL 검색을 차단하려면 다음과 같이 하시면 됩니다.
User-agent: Googlebot
Disallow: /*?

구글은 웹마스터 도구의 일원으로 robots.txt 분석 도구를 사용자들에게 제공하고 있습니다. robots.txt 분석도구는 여러분의 robots.txt 화일을 검색봇이 읽는 그대로 인식하여 그 결과를 여러분들께 제공하고 있습니다. robots.txt의 올바른 사용으로 사이트 방문자에게 보다 쉬운 접근 방법을 제공하는 동시에 필요한 부분을 보호, 차단할 수 있기 바랍니다.

 

출처 : http://googlekoreablog.blogspot.kr/2008/04/robotstxt.html

?

  1. 아파치 httpd.conf 재시작 없이 설정 적용하기

    Date2016.05.02 ByJAESOO Views178
    Read More
  2. 톰캣 8 소개

    Date2016.01.01 ByJAESOO Views250
    Read More
  3. 리눅스 아파치 로그 뷰어 webalizer, utf-8로 변환하기

    Date2014.12.22 ByJAESOO Views426
    Read More
  4. Webalizer Configuration – Configure Webalizer for SEO

    Date2014.12.22 ByJAESOO Views707
    Read More
  5. Webalizer, AWStats에서 국가 정보 확인하기

    Date2014.12.22 ByJAESOO Views359
    Read More
  6. Webalizer에서 국가별 로그 출력하기

    Date2014.12.22 ByJAESOO Views624
    Read More
  7. Apache: A good Webalizer.conf for the Webalizer Apache Log Analyzer utility

    Date2014.12.22 ByJAESOO Views1122
    Read More
  8. 아파치 로그분석 webalizer 설치

    Date2014.12.21 ByJAESOO Views365
    Read More
  9. Permission denied: .htaccess pcfg_openfile: unable to check htaccess file, ensure it is readable

    Date2014.12.19 ByJAESOO Views677
    Read More
  10. Permission denied: /home/.htaccess pcfg_openfile: unable to check htaccess file

    Date2014.12.19 ByJAESOO Views446
    Read More
  11. pcfg_openfile: unable to check htaccess file, ensure it is readable

    Date2014.12.19 ByJAESOO Views455
    Read More
  12. Tomcat 버전별 설명

    Date2014.06.04 ByJAESOO Views2223
    Read More
  13. Apache 실행환경을 nobody 사용자로 변경

    Date2014.05.28 ByJAESOO Views1420
    Read More
  14. 리눅스 사용자 계정별 웹서버 운영하기

    Date2014.05.27 ByJAESOO Views1749
    Read More
  15. Apache 서버에서 확장자 .htm 파일 내의 php 코드가 실행되지 않는 문제 해결 방법

    Date2014.05.26 ByJAESOO Views1546
    Read More
  16. php 웹사이트에서 파일을 업로드 하는중 100%에서 멈춰버리는 현상 해결

    Date2014.05.16 ByJAESOO Views1709
    Read More
  17. Apache Struts 버전 확인 방법

    Date2014.05.09 ByJAESOO Views2081
    Read More
  18. robots.txt를 현명하게 사용하는 방법

    Date2014.04.11 ByJaeSoo Views1669
    Read More
  19. robots.txt 파일(로봇배제 표준)

    Date2014.04.11 ByJaeSoo Views1684
    Read More
  20. Windows / apache_2.4.3 + php_5.4.10 + mod_fcgid_2.3.7

    Date2013.04.18 ByJaeSoo Views4166
    Read More
Board Pagination Prev 1 2 3 4 Next
/ 4

PageViews   Today : 111 Yesterday : 16624 Total : 21708286  /  Counter Status   Today : 94 Yesterday : 943 Total : 1138675

Edited by JAESOO

sketchbook5, 스케치북5

sketchbook5, 스케치북5

나눔글꼴 설치 안내


이 PC에는 나눔글꼴이 설치되어 있지 않습니다.

이 사이트를 나눔글꼴로 보기 위해서는
나눔글꼴을 설치해야 합니다.

설치 취소