컴퓨터
     cafe24 호스팅을 이용한 태터툴즈 블로그를 2달째 운영하면서 부터 문제가 발생하였다. 트래픽 초가로 인해 저녁 6시쯤에 홈피가 스톱되고 cafe24호스팅 공지글만 대신 떠있었던 것이다.

User inserted image
cafe24호스팅 사이트에 접속해서 [전송량통계상세보기]를 눌렀더니, 이미 오후 6시에 트래픽 400M가 초과되어 있었던 것이다. 전날에 비해 어의없게 증가한 트래픽! 그러나 전날과 비슷한 방문자 수... 얼른 웹서핑을 하여 원인을 찾아보니 뜻밖에 이것으로 저처럼 고생하신 분이 여럿 있으심을 알수 있었다.           
자세한 IP접속통계를 알고싶어서 설치형 통계프로그램인 Trace Watch를 설치한 후 테터툴즈에서 사용할 수 있게 TraceWatch 플러그인도 같이 설치하였다.
그러자 역시 로봇에 의한 페이지뷰가 증가됨을 알 수 있었다.
User inserted image
순위3은 본인의 IP이고 1,4번은 Google과 Google Adsense, 5번은 daum.net임을 확인할 수 있었다. 6~9번의 220.95.235.x의 아이피가 수상하여 tracewatch에 IP조회를 해보니 에이전트는 알 수는 없었지만 로봇임을 알 수 있었다. 차단을 하려니 좀 꺼림직했지만 일단 트래픽 보존이 시급했다.
일단 아이피 차단을 위해 .htaccess에 일단 아래와 같은 코드를 추가하였다.

SetEnvIfNoCase remote_addr 66.249.65.81 go_out
SetEnvIfNoCase remote_addr 66.249.65.180 go_out
SetEnvIfNoCase remote_addr 222.103.241.49 go_out
SetEnvIfNoCase remote_addr 220.95.235 go_out
Order allow,deny
Allow from all
Deny from env=go_out

tracewatch로 확인하자 로봇의 방문은 줄었고 트래픽은 안정되었다.
하지만 왠지 이렇게 몇몇 로봇들을 완전 차단한 것이 좀 아쉬웠다.

그러면 이렇게 IP차단하는 방법말고 다른 방법은 없을까?
우선 검색로봇을 막는 Robots.txt를 작성해보았다.

[검색로봇을 막는 방법 robots.txt]

robots.txt 간단설명..

User-agent: Slurp
Crawl-delay: 3600

제가 작성한 robots.txt의 내용은 단 2줄이다.
가장 방문 빈도수가 높은 야후로봇의 방문주기를 1시간으로 조정하였다. 야후로봇의 IP가 한두개가 아니기때문에 방문주기를 길게조정하였다.

그러나 tracewatch의 확인결과 Crawl-delay는 robots의 정식 문법이 아니어서인가? 나의 경우엔 전혀 효과가 없었다. 야후로봇은 지연시간을 지키지않고 시시때때(?)로 방문하였다.

마지막 방법으로 robots.txt도 지우고 .htaccess도 다 지우고,
고유도메인rss 주소를 feedburner고유rss 주소로 바꾸어서
rss접속에 따르는 트래픽을 feedburner로 위임(?)시켰다.

그래서인지 몰라도 트래픽이 하루 200M수준으로 감소하였다.
실방문보다 RSS 피드를 통한 접속이 원래 그렇게 많은것인가?
rss를 feedburner로 돌려서 감소한건지는 확실하지 않지만, 로봇방문차단을 하지않고도 트래픽을 하루한계량 50%대로 유지할 수 있었다.


계속 트래픽을 모니터할 소지는 있지만, 일단 트래픽문제가 해결되어서 다행이다.