저는 [로봇 user-agent]에 다음과 같이 설정했습니다.
User-agent: *
Allow: /
DaumWebMasterTool:f4447c4a527aa92b54f1f205b65afe545080b4cf6b5bfeeda83b9aba5f91395a:RRcCX9Jc9U3pcZIjztAJtw==
SetEnvIfNoCase User-Agent "GPTBot/1.2" go_out
SetEnvIfNoCase User-Agent "ClaudeBot/1.0" go_out
근데 요즘 제 홈페이지가 트래픽 초과로 자주 접속금지를 당합니다. 그래서 확인해보니 로봇이 문제네요.
위에 열거한 2가지가 주범인데요.
이와 같이 설정하면 차단되는 줄 알았는데~ 아닌가봐요.
어떻게하면 트래픽 과다로 홈페이지가 차단되지 않게 만들 수 있는지요.
아시는 분의 조언 부탁드립니다.
# 설치된 라이믹스는 최신판입니다.
https://xetown.com/download/1843071