著作一覧 |
攻撃っても、DoSとかじゃなくて、クロウラーがとにかく読みに来て、そんなものはSubversionのDAVの仕組み上、あり得ないので500になってerror.logが膨れ上がるということ。
でも、<Location>でDAV svnしているから、どうにもしょうがない。空しくrobotx.txt.formatが見つからないといって500がログされていく。
で、検索したら、同じように感じている人がいて、 Re: stopping webcrawlers using robots.txtで、Locationの代わりにDirectoryを使う方法を紹介していた。
で、実はfollowに気付かずに、やってみたら(当然)うまく行くのだが、follow見たらupdateが動かないとか出ている。
で、本当にそうなので、あえなく元に戻した。
でも、同じスレッドに良くみたら別解(Rewriteで普通のvhostへ飛ばす)があって、それがビンゴだった。
ジェズイットを見習え |