Robots.txt 파일이란?
웹사이트의 루트 디렉토리에 위치한 Robots.txt 파일은 검색 엔진 로봇들에게 특정 지침을 제공합니다. 일반적으로 이 파
일은 텍스트 형식으로 작성되며, 특정 문법 규칙에 따라 구성된다.
로봇접근제어 : Robots.txt 파일에 명시된 디렉토리나 파일들은 검색 엔진 로봇들에 의해 크롤링이 제어된다. 디렉토리 또는 파일을 크롤링에서 제외하거나 포함할 수 있다.
문법규칙 : Robots.txt 파일은 특정 문법 규칙을 따라 작성되어야 하고. 각각의 지시는 User-agent와 Disallow 명령어로 시작하며, 특정 크롤러(User-agent)에게 어떤 디렉토리나 파일을 제한할지 명시한다.
읽기 및 준수: 검색 엔진 로봇은 웹사이트를 크롤링할 때 Robots.txt 파일을 읽고 그 내용을 준수한다. 예로, Disallow 명령어에 의해 특정 디렉토리가 제한된 경우 해당 디렉토리의 내용은 크롤링되지 않습니다.
SEO 전략에 활용: Robots.txt 파일을 적절히 활용하면 웹사이트의 SEO 전략을 조정할 수 있다. 예를 들어, 중요한 콘텐츠에 집중하거나 중복 콘텐츠를 방지할 수 있습니다.
Robots.txt 파일은 웹사이트의 크롤링 행동을 조정하여 검색 엔진에서 원하는 방식으로 웹사이트를 색인화하도록 돕는다.
Disallow: [제한할 디렉토리 경로]
파일 저장: 작성이 완료되면 파일을 'robots.txt'로 저장 한 후, 이때 파일 이름은 반드시 소문자로 작성되어야 하며, 따옴표나 다른 확장자 없이 저장한다.
서버에 업로드: 편집이 완료된 Robots.txt 파일을 웹사이트의 루트 디렉토리에 업로드합니다. 이제 검색 엔진 로봇들이 이 파일을 읽어 웹사이트를 크롤링할 때 설정한 지침에 따라 동작하게 된다.
순서대로 Robots.txt 파일을 만들고 웹사이트의 크롤링 동작을 효과적으로 관리할 수 있다.
'검색엔진마케팅(SEO,SEM)' 카테고리의 다른 글
구글 검색 결과 개수 확인하기 (0) | 2024.07.11 |
---|---|
온라인 마케팅에서 효과적인 키워드 설정 (0) | 2024.07.10 |
구글 온라인광고 용어 정리 (0) | 2024.07.07 |
구글 인덱싱 결과 확인하기 (0) | 2024.07.06 |
구글 애널리틱스(Analytics)란 ? (0) | 2024.07.03 |