http://www.bug.co.jp/nami-nori/
概要引用
指定されたWWWホームページを巡回し、 あなたのローカルディスク上にホームページの複製を作ってくれる 便利なソフトウェアです。ディスク上にダウンロードされたWWWのページを 後でゆっくりと時間を気にしないで読むことができます。
だそうです。
WeBoX
http://www.forest.impress.co.jp/lib/inet/browser/webextn/webox.h...
Website Explorerは使い方を誤るとある意味(リンク追跡機能等)危険です。
意図したサイトのみ取り込める方が安全といえます。
Firefox 拡張機能 ScrapBook
http://amb.vis.ne.jp/mozilla/scrapbook/?lang=ja
http://www.mozilla-japan.org/products/firefox/
高度な機能はありませんがシンプルでわかりやすいです。
コマンドラインでやりたいのであればこんなのとか。
GNU wget
http://www.gnu.org/software/wget/
http://itpro.nikkeibp.co.jp/article/COLUMN/20060228/230995/
-rオプションを使えばお望みのことができるかと。
FreeDownloadManager
http://www.altech-ads.com/product/10001239.htm
ダウンロード支援ソフトですが、機能の一つ「HTMLスパイダー」というものでウェブサイトの丸ごとダウンロードが可能です。
使い方は難しくありませんが、初めは少し戸惑うかもしれません(初期値では英語表示なので日本語に切り替える必要があったり、起動直後はHTMLスパイダーのタブが表示されていなかったり)。
元々は初心者でも使いやすいダウンロード支援用のソフトなので、そういったソフトを探していた場合であったり、また単機能のウェブサイト丸ごとダウンロードソフトよりも比較的高速にダウンロードできるので、複数もしくは大きめのウェブサイトを保存したい場合に需要があるかと思います。
DS Downloaderというソフトはどうでしょうか。
DELTA SOFTが開発して、Vectorのサイトから落とせます。
最終更新が2004年5月3日と、多少古いソフトではありますが、愛用しています。
http://members.at.infoseek.co.jp/futora/wget153/
wgetが一番便利です。CUIのプログラムなので多少操作が難しいのが難点ですが、
その代わり色々細かい条件を付けられますし、
絶対パスを相対パスに書き換えてくれたりといたれりつくせりです。
コメント(0件)