「天牌外伝」9巻
毎度おなじみ演歌系麻雀マンガ。今回のエピソードは、バツイチキャバ嬢、ホームレスギャンブラー、家出した弟の行方、没落する歯科医師。
「軍鶏」25巻
チームトーマ vs. 黒道着衆の対決。それぞれ曲者が登場するなあと思いながら読み進めたら、後半にやっぱり危険な展開が。
「喰いしん坊」10巻
喰いワングランプリ、ついに開幕。いままで登場したいろいろな人が集まっている。あいかわらずケレン味たっぷりで面白い。
「弁護士のくず」4巻
案外、コンスタントに面白い。ステロタイプのように見えて、登場人物がそれぞれキャラが立ってるからかな。
P::P::CustomFeed::MixiDiarySearchが動かないのでパッチ
PlaggerでMixiの日記の検索結果をフィードにするCustomFeed::MixiDiarySearchが、最近ヒットしていないことに気づいた。
調べると、プロフィール写真のサーバーが変わったため、正規表現がマッチしなくなっているようだ。そこで5文字だけ追加。
2006-11-27追記:trunk(本家)で修正された模様。
--- MixiDiarySearch.pm.bak 2006-10-01 16:02:06.000000000 +0900 +++ MixiDiarySearch.pm 2006-11-25 09:56:35.000000000 +0900 @@ -57,7 +57,7 @@ my $re = decode('utf-8', <<'RE'); <table BORDER=0 CELLSPACING=1 CELLPADDING=4 WIDTH=550> <tr> -<td WIDTH=90 VALIGN=top ROWSPAN=5 ALIGN=center background=http://img\.mixi\.jp/img/bg_line\.gif><a href="(view_diary\.pl\?id=\d+&owner_id=\d+)"><img SRC="(http://img\.mixi\.jp/photo/member/.*?\.\w+)" VSPACE=3 border=0></a></td> +<td WIDTH=90 VALIGN=top ROWSPAN=5 ALIGN=center background=http://img.mixi.jp/img/bg_line.gif><a href="(view_diary\.pl\?id=\d+&owner_id=\d+)"><img SRC="(http://img-p\d+\.mixi\.jp/photo/member/.*?\.\w+)" VSPACE=3 border=0></a></td> <td BGCOLOR=#FDF9F2><font COLOR=#996600>�� ��</font></td> <td COLSPAN=2 BGCOLOR=#FFFFFF>(.*?) \(.*?\)
「仮面ライダーSPIRITS 」11巻
あいかわらずの激熱マンガ。この巻は、特にXライダーが活躍して、熱いところを見せる。
ZXは、敗北と先輩ライダーの叱咤激励、おやっさんのサポートから特訓するという、黄金パターンへ。
ちなみに、ゴードンの滝に対する態度が、いままで→38ページ→88ページ→131ページと少しずつ移り変わる描写が細かいと思った。
ZXは、敗北と先輩ライダーの叱咤激励、おやっさんのサポートから特訓するという、黄金パターンへ。
ちなみに、ゴードンの滝に対する態度が、いままで→38ページ→88ページ→131ページと少しずつ移り変わる描写が細かいと思った。
仮面ライダーSPIRITS 11 (11)
posted with amazlet on 06.11.25
石ノ森 章太郎 村枝 賢一
講談社
売り上げランキング: 62
講談社
売り上げランキング: 62
今日発売のコミック一覧メルマガ
Plagger::Plugin::CustomFeed::Manganomoriが便利そうなので、自分用にタイトルどおりのレシピを作ってみた。あくまでも自分のみに送信。
……でも今日発売のコミック新刊はなかった orz
plugins: - module: CustomFeed::Manganomori - module: Filter::Rule rule: expression: $args->{entry}->date->ymd eq Plagger::Date->now->ymd - module: Publish::Gmail config: mailto: [email protected]
「できるPRO Fedora Core 6」
関係者です。12月7日発売。
今回は怒涛の560ページ図解だらけ。いやほんと、体力仕事でした。Fedora Coreだから正式版になるまで最終仕様はわからないし。案の定、大きく変わってました。
いままでGUI編とコマンドライン編にわかれていた本を1冊に統合。できるシリーズですので、なんとか話の流れはつじつまをあわせたつもりです。そのぶん、一番乗り競争はあきらめました。
地味なところでは、シリーズの昔からひきついでいた古い部分を一部いまどきの内容に変更しました。各ソフトの解説ごとにiptablesに対応とか、MTAにPostfixを採用とか、yumリポジトリ追加を解説とか。
あと、どさくさにまぎれてMovable TypeとかSquirrelMailとかも扱ってます。
今回は怒涛の560ページ図解だらけ。いやほんと、体力仕事でした。Fedora Coreだから正式版になるまで最終仕様はわからないし。案の定、大きく変わってました。
いままでGUI編とコマンドライン編にわかれていた本を1冊に統合。できるシリーズですので、なんとか話の流れはつじつまをあわせたつもりです。そのぶん、一番乗り競争はあきらめました。
地味なところでは、シリーズの昔からひきついでいた古い部分を一部いまどきの内容に変更しました。各ソフトの解説ごとにiptablesに対応とか、MTAにPostfixを採用とか、yumリポジトリ追加を解説とか。
あと、どさくさにまぎれてMovable TypeとかSquirrelMailとかも扱ってます。
できるPRO Fedora Core 6 Linux完全活用編
posted with amazlet on 06.11.23
辻 秀典 渡辺 高志 鈴木 幸敏 できるシリーズ編集部
インプレスジャパン
売り上げランキング: 9788
インプレスジャパン
売り上げランキング: 9788
「「心理テスト」はウソでした。 受けたみんなが馬鹿を見た」
血液型人間学は当然として、ロールシャッハテストやYGテスト、内田クレペリン検査まで、「心理テスト」を批判している本。主に統計的な手法を用いている。面白い。
ただ、ロールシャッハテストは、著者が関係しているだけあって、否定しているわりには自分のテストだけ肯定的に引用して中途半端な批判になっているのが残念。
ただ、ロールシャッハテストは、著者が関係しているだけあって、否定しているわりには自分のテストだけ肯定的に引用して中途半端な批判になっているのが残念。
「心理テスト」はウソでした。 受けたみんなが馬鹿を見た
posted with amazlet on 06.11.20
村上 宣寛
日経BP社
売り上げランキング: 69351
日経BP社
売り上げランキング: 69351
CustomFeed::Configで2階層
Plaggerねたで、2段階の階層構造が扱えるようなCustomFeed::Configが欲しいというエントリーを見た。そこで、掲載されているサンプルをCustomFeed::Configでパースできる設定を作ってみた。かなり無理矢理。
無理矢理というのはこんなところで。
- ほとんどextract_after_hookにスクリプトを書いてる
- 一時変数がわりに$contextに間借りしている
なんかCustomFeed::Scriptでやったほうが早いような気がしてきた。
match: URIの正規表現 extract_date_format: %Y/%m/%d extract: (.*?</li>) extract_capture: item extract_after_hook: | my $re_date= decode('utf-8', '<h3>(\d+/\d+/\d+)発売</h3>'); if($data->{item} =~ /<h3>/){ $data->{item} =~ m|$re_date|o; $context->{XXX} = $data->{date} = $1; }else{ $data->{date} = $context->{XXX}; } $data->{item} =~ m|<li>(.*)</li>|; $data->{title} = $1;
P::P::Publish::TagCloud更新
HTML::TagCloudの出力するCSSが0.34で修正された結果、P::P::Publish::TagCloudがエラーになるようになった。そこで更新。古いHTML::TagCloudでも同じ結果になるようにした。
package Plagger::Plugin::Publish::TagCloud; use strict; use warnings; use base qw ( Plagger::Plugin ); our $VERSION = 0.02; use Encode; use HTML::TagCloud; use File::Spec; sub register { my ($self, $context) = @_; $context->register_hook( $self, 'publish.feed' => \&feed, ); } sub feed { my($self, $context, $args) = @_; my $conf = $self->conf; my $f = $args->{feed}; my %tagcount; for my $e ($f->entries) { for my $t (@{$e->tags}){ $tagcount{$t}++; } } my $cloud = HTML::TagCloud->new; while ((my $k, my $c) = each %tagcount) { $cloud->add($k, '', $c); } my $html = $cloud->html_and_css($self->conf->{maxtags} || undef); $html =~ s/line-height: \d+px/line-height: 1/; # for HTML::TagCloud < 0.34 my $file = Plagger::Util::filename_for($f, $self->conf->{filename} || "%i.html"); my $filepath = File::Spec->catfile($self->conf->{dir}, $file); $context->log(info => "save TagCloud for " . $f->link . " to $filepath"); open my $output, ">:utf8", $filepath or $context->error("$filepath: $!"); print $output $html; close $output; } 1; __END__ =head1 Plagger::Plugin::Publish::TagCloud - Publish feeds as TagCloud =head1 SYNOPSIS - module: Publish::TagCloud config: dir: /tmp/tag filename: output.html maxtags: 10 =head1 CONFIG =head2 dir Directory to save csv files in. =head2 filename Filename to be used to create csv files. It defaults to C<%i.html>. It supports the following format like printf(): =head2 maxtags Numbers of tags to output. =head1 AUTHOR Masakazu Takahashi =head1 SEE ALSO L<Plagger>, L<HTML::TagCloud> =cut
「海賊の掟」
2005年にマラッカ海峡で起きた韋駄天号事件を皮切りに、現代の海賊から歴史上の海賊まで解説する本。一気に読ませる。
1章が現代の東南アジアの海賊、2章が大航海時代のヨーロッパの海賊、3章が水軍とか倭寇とかの日本の海賊を取り上げている。
筆者の仕事がら、1章がメインと思うし、当事者に取材した話とか面白い。ただ、それだではなく2章や3章にもけっこう力を入れているところに、著者の海賊に対するアンビバレンツな思いを感じた。
1章が現代の東南アジアの海賊、2章が大航海時代のヨーロッパの海賊、3章が水軍とか倭寇とかの日本の海賊を取り上げている。
筆者の仕事がら、1章がメインと思うし、当事者に取材した話とか面白い。ただ、それだではなく2章や3章にもけっこう力を入れているところに、著者の海賊に対するアンビバレンツな思いを感じた。
「やぎの目ゴールデンベスト」
人気サイト「Webやぎの目」の人気コラム「やぎコラム」(最近は「やぎポエム」)の傑作選。
もう何年も毎日のように見ているので、本ではどうだろうとちょっと心配した。でも、あいかわらずゆるく半笑いした。
もう何年も毎日のように見ているので、本ではどうだろうとちょっと心配した。でも、あいかわらずゆるく半笑いした。
「弁護士のくず」1~3巻
ちょっと前にドラマ化されてたマンガ。非常識な弁護士(タケちゃんマン似)が無茶な方法で難事件を解決する連作。登場人物や事件が多彩で、けっこう面白かった。
「デトロイト・メタル・シティ」2巻
デスメタルバンドねたのギャグ漫画。というか「エリートヤンキー三郎」デスメタルバンド版というか。
2巻になって、バカさが加速してるような。特に東京タワーの話は最初から最後まで最高にバカで笑った。
2巻になって、バカさが加速してるような。特に東京タワーの話は最初から最後まで最高にバカで笑った。
「無限の住人」20巻
人体実験編が完結。実在の人物とか不死人量産とか、広げた風呂敷も、なんとかたたみきったみたい。そしてついに、万次と凛がチューですよ。
「ヴィンランド・サガ」第3巻
ついに出た3巻。週刊少年マガジンからアフタヌーンに移って、ヴァイキングの描写が暴力的な方向にシフト。新キャラのトルケルも出てきて、ヴァイキングの生き方が前面に出てきている感じがした。
しかし1つめのエピソードが切ないですな。
しかし1つめのエピソードが切ないですな。
「世界でもっとも美しい10の科学実験」
美しい科学理論があるなら、美しい科学実験があってもいいじゃないか、ということで、科学史から人気投票と審査で10の実験を取り上げて、解説する本。
題材も、エラトステネスによる地球の外周の測定から、1個の電子の量子干渉まで、年代ごとにさまざま。それぞれ、背景となるエピソードまで深く考察して、かつ読みやすく解説している。
面白かった。
題材も、エラトステネスによる地球の外周の測定から、1個の電子の量子干渉まで、年代ごとにさまざま。それぞれ、背景となるエピソードまで深く考察して、かつ読みやすく解説している。
面白かった。
世界でもっとも美しい10の科学実験
posted with amazlet on 06.11.12
ロバート・P・クリース 青木 薫
日経BP社
売り上げランキング: 6092
日経BP社
売り上げランキング: 6092
新着のみEFTする
たまにPlagger、略して、たまPla(←東急田園都市線沿線限定)
「エントリ総数470件。これを毎回読み込むのはちょっと…(Ruleで何とか出来るのでしょうか)。」というエントリーを見た。
普通にDedupedをかけても、先に全部EFTしてからになる。そこで、いまのところ、こんな感じでいけるっぽい。
ただ、なんでこれでうまくいくのかが謎(汗)。2回Dedupedしているので後から実行するほうは未読0になりそうなものだけど。
「エントリ総数470件。これを毎回読み込むのはちょっと…(Ruleで何とか出来るのでしょうか)。」というエントリーを見た。
普通にDedupedをかけても、先に全部EFTしてからになる。そこで、いまのところ、こんな感じでいけるっぽい。
- module: Filter::Rule
rule:
module: Deduped
- module: Filter::EntryFullText
rule:
module: Deduped
ただ、なんでこれでうまくいくのかが謎(汗)。2回Dedupedしているので後から実行するほうは未読0になりそうなものだけど。
Google Groupsの文字コードの謎
Google GroupsではMLの新着がRSS/ATOMのフィードでとれる。が、Plaggerを使ってEFTで全文をとろうとすると、EFTではめこんだ日本語が「?」になってしまう。
Plaggerのキャッシュを調べてみると、HTTPヘッダーやmetaタグやらでISO-8859-1が指定されている。本文はUTF-8なので、そりゃdecode_contentで化けるわけだ。ただし、ブラウザーで見るとUTF-8と指定されて来るのがさらに謎。
そこで、LWPを使う簡単なPerlスクリプトを作り、パラメーターを変えて比較実験した。どうやらUser-Agentを見て指定を変えているようだ。そこで、PlaggerのYAMLのuser_agentでFirefoxのUser-Agent文字列を指定。Plaggerのキャッシュを一度クリアして試したら、無事全文が読めるようになった。
ちなみに、Encode::decode('ISO-8859-1', UTF-8の日本語テキスト、Encode::FB_CROAK)とかやってもエラーにならず、それっぽいヨーロッパ文字に解釈される模様。
Plaggerのキャッシュを調べてみると、HTTPヘッダーやmetaタグやらでISO-8859-1が指定されている。本文はUTF-8なので、そりゃdecode_contentで化けるわけだ。ただし、ブラウザーで見るとUTF-8と指定されて来るのがさらに謎。
そこで、LWPを使う簡単なPerlスクリプトを作り、パラメーターを変えて比較実験した。どうやらUser-Agentを見て指定を変えているようだ。そこで、PlaggerのYAMLのuser_agentでFirefoxのUser-Agent文字列を指定。Plaggerのキャッシュを一度クリアして試したら、無事全文が読めるようになった。
ちなみに、Encode::decode('ISO-8859-1', UTF-8の日本語テキスト、Encode::FB_CROAK)とかやってもエラーにならず、それっぽいヨーロッパ文字に解釈される模様。