wgetを使ってみたんですが、ノウハウが無いんで、要らない物ばかりがしがし落とされてしまいます。ちなみにWinXPです。Webサービスでもソフトでもスクリプトでもなんでもいいんで、どうぞよろしく。
http://diary.jp.aol.com/juicyfruits/
詩的な絵ですね。
perlスクリプトです。ActivePerlをインストール後、cpanでWWW::Mechanizeをインストールして使ってください。(コマンドプロンプトで「cpan WWW::Mechanize」)
use WWW::Mechanize; $\ = "\n"; my $url = "http://diary.jp.aol.com/juicyfruits/"; my $image_url = "http://diary.jp.aol.com/juicyfruits/img/"; my $dirname = "image_getter"; mkdir $dirname unless -e $dirname; chdir $dirname or die "can not make dir."; my $mech = WWW::Mechanize->new( agent=>'Mozilla/4.0 (compatible; MSIE 6.0; Windows XP)' ); my $getter = WWW::Mechanize->new( agent=>'Mozilla/4.0 (compatible; MSIE 6.0; Windows XP)' ); $mech->get( $url ); while(1) { get_images(); $mech->follow_link( text_regex=>qr|>>| ) or last; print "Now: ", $mech->uri(); sleep 1; } print "Complete!"; sub get_images { my @image_urls = $mech->content =~ m|src="/juicyfruits/img/(.+?\..+?)"|g; foreach my $image (@image_urls) { next if ($image =~ /profile\.jpg/) or (-e $image); $getter->get($image_url . $image, ":content_file", $image); print $mech->success() ? "GET: $image" : "Error: $image"; } }
上のスクリプトを「getter.pl」で保存した場合、
「C:\perl\bin\perl getter.pl」のように実行します
同じくWinXPなので多分いけると思います。
http://hw001.gate01.com/kzsoft/
ダウンロードは
http://hw001.gate01.com/kzsoft/download.html
シェアウェアですが1000個まではダウンロードできるようです。
しかし、この手のソフトってサイト作者には失礼だと思います。
あまり負荷のかからないよう注意して下さい。
おお、後で試してみます!
Firefoxの拡張機能のDownthemAllとAutopagerizeを組み合わせればいけるんじゃないかと試行錯誤していたんですけど、SITEINFOの作成からしてうまくいかず、泣く泣く人力検索したんですが、やっぱりこういうのをぱぱっと書ける人はすごいっすね。
追記
XAMPPのPerlアドオンにPPMでWWW::Mechanizeを追加してスクリプトを実行したのですが、フォルダだけ作られ「Complete!」と表示されるだけで終わってしまいます。どうもインターネットに取りに行く前でこけてるみたいです。