index

2001年 4月
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30            
2001年 5月
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31      
2001年 6月
        1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30  

アレ

  ▽20010531a #日記

 社のサーバが何かしらの理由で機能停止したりすることがある. まぁ理由としてはさまざまで,apache が死んだだの, oracle の listner が沈黙しただの,swap が溢れただの.

 で,そういう事態になっても,こっちは普段はローカルにあるテスト環境でコード書いてるわけで, 人に指摘されるまで気付かないなんてことがままあるのだな. 監視エージェントもあるにはあるが,どういうわけかマトモに機能してない.いかんね.

 というわけで,毎回ギリギリっつーかライン超えてから召喚されるのを避けるため, perl と wget とかを使ってごく簡単な監視プログラムを作成. 社の相方と相談した結果,プログラム名は「Web暴走エージェント Hell's Angels」になった(ぉ

 で,実際のところは機能は簡単で,

  1. wget でページを取ってくる
  2. 取ってこれなかったらエラー
  3. ページサイズが指定バイト数以下ならエラー
  4. ページ内に指定文字列を含んでいたらエラー
  5. エラーがあったらメールで報告
とゆー,まぁごくシンプルなものだ. はたしてこれがどれくらいの役に立つのか. ていうかこれが役立つ時が一生来ないのきぼーん.

index