〜2006年8月上旬〜
549通。Gmail側約4400スレッド。 判定が甘いというよりspam側がずる賢くなってるような気がする。
yum updateを自動化したはいいが何が更新されたかがわからない。
これがわからないとカーネルが更新されたときの再起動のタイミングにも困る。
/etc/cron.daily/yum.cronを見ると-d 0というオプションが指定されていたので、
-d 1に変更。これで以下のようなメールがくるようになった。
============================================================================= Package Arch Version Repository Size ============================================================================= Updating: NetworkManager i386 0.6.4-1.fc5 updates 393 k NetworkManager-glib i386 0.6.4-1.fc5 updates 25 k gnupg2 i386 1.9.22-1.fc5 extras 565 k selinux-policy noarch 2.3.3-8.fc5 updates 499 k selinux-policy-targeted noarch 2.3.3-8.fc5 updates 512 k Transaction Summary ============================================================================= Install 0 Package(s) Update 5 Package(s) Remove 0 Package(s) Total download size: 1.9 M
defaultは-d 2らしい。
最近サイズが30KBぐらいでテキストとHTMLの両方を含んだspamがよく来る。
HTMLのほうには画像が入っていてその内容はspamを画像化したもの。
テキストのほうはspamになりようがない内容で、これは学習してもまったく意味がない感じ。
どうしようかと思ってよく見たらその画像に対して名前name="image001.gif"が必ずついていた。
ちょっとまぬけだな。そこはランダムにしとけばいいのに。
とはいってもありがちな文字列なのでもうちょっと厳密にタブ等も含めて
/^\tname="image001.gif"$/
という条件でspam扱いすることにした。
エラトステネスの篩。どんどん短くなっていく過程が面白かったので集めてみた。
a=(2..100).to_a;p a.each{|c|a.map!{|d|c&&d&&c<d&&d%c==0?nil:d}}.compact a=(2..100).to_a;p a.each{|c|a.reject!{|d|c<d&&d%c==0}} p (2..100).inject([]){|a,n|a.any?{|i|n%i==0}?a:a<<n} p (2..100).inject([]){|a,n|a.any?{|i|n%i<1}?a:a<<n} a=[*2..100];p a.each{|c|a.reject!{|d|c<d&&d%c==0}} p [*2..100].reject{|d|(2..d-1).find{|c|d%c==0}} p (2..100).select{|d|!(2..d-1).find{|c|d%c==0}} p (2..100).reject{|d|(2..d-1).find{|c|d%c==0}} p (2..100).select{|d|(2...d).all?{|c|d%c>0}} p (2..99).select{|d|(2...d).all?{|c|d%c>0}}
なんだかんだで調べてみると最終的にはほとんど ごとけんさんの作品 に近くなってる。
USBのケーブルも要らないようだし結局これの512MBを注文した。 ちょっと古いようだけどファームウェアもアップデートされてるようだし、 マニュアル も公開されてるのが気に入った。
ついついw3mでもブックマークしたくなるので、Firefoxのbookmarkletを移植。
#! /usr/local/bin/ruby require 'nkf' require 'cgi' def esc(s) CGI.escape NKF.nkf('-Ew', s || '') end title = esc ENV['W3M_TITLE'] url = esc ENV['W3M_URL'] posts = 'https://api.del.icio.us/v1/posts/add' param = "?description=" + title + '&url=' + url + '&tags=toread&shared=no' print <<"EOF" w3m-control: GOTO #{posts}#{param} w3m-control: DELETE_PREVBUF w3m-control: BACK EOF
を~/.w3m/cgi-bin/del.icio.us.cgiへ保存して、~/.w3m/keymapに
keymap d GOTO file:///cgi-bin/del.icio.us.cgi
を追加。これでdと打てばブックマークできる。
でも、UTF-8で書かれたページだとタイトルが化けてしまう。
どうも環境変数W3M_TITLE自体がすでに化けてるような。w3mのバグか?
録っといたドラゴン桜の再放送を見た。
本放送のときは野球かなんかの延長で途中で見るのをやめたんだよなあ。
そういえば日テレも今月から巨人戦の中継延長やめたようで。
フジは生放送をやめて深夜に録画を流すらしい。
8,9,10日がそうなんだけど、それはそれで正直迷惑だ。
今度は中止のときに以降の番組が繰り上がる。
何の音沙汰もないままちょっと不安になっていたが、 今日ばたばたと処理が進んで明日来そうな感じになった。 単に土日は休みだっただけらしい。
意外と大きい。Linuxから問題なくUSBストレージとして扱える。
m3uファイルが使えるとかFMラジオがついてるとか全然気にしてなかった機能なだけに結構嬉しい。
あれ?デフォルトだとソートした順番じゃないなこれ。
cp -aじゃ物理的な順でコピーしちゃうようで、ちゃんと並ぶようにコピーしないとだめか。
ファイル名はUTF-8のままでも化けない。これはちょっと驚いた。
昨日の件でもう一度コピーしなおすのも馬鹿らしいので、
なにか方法はないかと考えた。
以前MS-DOSでFDを使っていたときにそんな機能があったので、
FDcloneにもあるかと調べたらちゃんとあった。
さすがcloneを名乗るだけのことはある。
sでソートしてwで書き込めばok。
で、そのodで引数に-tx1zを指定するとhexdump -Cっぽくなる。
% ruby -e 'print "A"*20' | od -tx1z 0000000 41 41 41 41 41 41 41 41 41 41 41 41 41 41 41 41 >AAAAAAAAAAAAAAAA< 0000020 41 41 41 41 >AAAA< 0000024 % ruby -e 'print "A"*20' | hexdump -C 00000000 41 41 41 41 41 41 41 41 41 41 41 41 41 41 41 41 |AAAAAAAAAAAAAAAA| 00000010 41 41 41 41 |AAAA| 00000014