저는 [로봇 user-agent]에 다음과 같이 설정했습니다.

User-agent: *
Allow: /
DaumWebMasterTool:f4447c4a527aa92b54f1f205b65afe545080b4cf6b5bfeeda83b9aba5f91395a:RRcCX9Jc9U3pcZIjztAJtw==
SetEnvIfNoCase User-Agent "GPTBot/1.2" go_out
SetEnvIfNoCase User-Agent "ClaudeBot/1.0" go_out

 

근데 요즘 제 홈페이지가 트래픽 초과로 자주 접속금지를 당합니다. 그래서 확인해보니 로봇이 문제네요.

위에 열거한 2가지가 주범인데요.

이와 같이 설정하면 차단되는 줄 알았는데~ 아닌가봐요.

어떻게하면 트래픽 과다로 홈페이지가 차단되지 않게 만들 수 있는지요.

 

아시는 분의 조언 부탁드립니다.

 

# 설치된 라이믹스는 최신판입니다.

  • Lv6
    구충제모듈 사용해보세요.
    https://xetown.com/download/1843071
  • Lv6 Lv2
    설치하겠습니다.
    알려 답변주셔서 고맙습니다. T T
  • Lv36

    원글의 내용은 라이믹스 설정이 아니라 robots.txt, .htaccess 등의 파일에 나누어 넣어야 하는 내용인 것 같습니다. 예를 들어 다음 웹마스터 툴에서 인증 코드를 어디에 넣으라고 하는지 다시 확인해 보세요.

     

    로봇 user-agent 설정에 입력한다고 차단되지는 않습니다. 그냥 아~ 로봇이구나~ 하고 말지요. 카운터 통계에서 제외하거나 게시판에서 로봇에게 불필요한 데이터를 출력하지 않는 정도?

  • Lv36 Lv2
    몰랐네요. T T
    답변고맙습니다.
  • Lv18

    User-agent: *
    Allow: /
    DaumWebMasterTool:f4447c4a527aa92b54f1f205b65afe545080b4cf6b5bfeeda83b9aba5f91395a:RRcCX9Jc9U3pcZIjztAJtw==
    는 robots.txt 파일에 들어가야 하는 내용입니다.

    SetEnvIfNoCase User-Agent "GPTBot/1.2" go_out
    SetEnvIfNoCase User-Agent "ClaudeBot/1.0" go_out
    는 아파치 설정파일에 들어가야 합니다. 물론 go_out이 정의되어 있다면 차단하는 부분도 따로 추가되어 있어야 합니다.(위 두줄은 특정 User Agent가 접근하면 go_out이라는 env를 정의하는게 끝입니다)

    둘다 라이믹스 설정에서 입력하실 내용은 아닙니다.(입력하셔도 아무 의미 없습니다) 맨위 댓글 보시고 구충제 모듈 설치만 하셔도 왠만한 악성 봇은 차단됩니다.

  • Lv18 Lv2
    자세한 답변 고맙습니다. T T