rsyncX / Apacheのダウンローダ対策
現在のCubeの内部はひいき目に見ても「涼しい」とはいえず。
で。
万一熱が原因でHDDが飛んだときのことを考えて、これdo台を購入してからは週に一回あるかないかでUsersパーティションを丸ごと外のHDDにバックアップしている。
これまでは単純にdittoコマンドでベタコピーしていたのだが、こうしょっちゅうゴリゴリと大量のバックアップをとってちゃ逆にHDDに悪いなと思い、よさげなバックアップソフトを色々あさってみた。
リソースフォークをきちんと扱えて、操作が楽で、比較処理できて、(違うオーナ―のフォルダも処理できるように)rootで処理できて、、という条件で探してみたところ、オープンソースのrsyncベースでHFS+対応GUI付属版の
rsyncXというそのものずばりのものを発見。
さくっとUsers丸ごと比較バックアップしてくれやした。
カッコイイ。
作業をしていると、ふとCubeのHDDがカリカリカリカリ。。。。
「オイオイ」と思いながらネットワークの
パケットもといTCP通信の中身をのぞいてみると、apacheに連続アクセスが来ているのだがすべて416エラーでスカっている。
ギャラリーcgiに向かってダウンローダで落とそうとして、しかもrange設定を5000bytes以上にしてあるせいらしい。
すぐやむだろう、と思ってほっておいたが延々とカリカリカリカリ。。。。
別にCPUやトラフィックを大して食われているわけでもないのだが、びみょーにいらつく。
こういうときにあっさり対策できればいいのだが、apacheはあくまでエラーを返すことしかできないし、やるとしたらIDSで短時間に不必要な連続アクセスが来たら関連アクションとしてipfwでdropする、とかくらいしか思い付かない。
それも不必要な要求かどうかは確実にはわからないので誤動作の恐れもあるし、ipfwで遮断してしまうのもどうもなんだし。
軽く特定のIPからのアクセスを短時間はじく、とかいうIPフィルターがあったらいいのだが。
とまあ、色々調べたあげく「まあ、ここは楽しいイソターネットだし」とひとりごちて調査終了。