■ このスレッドは過去ログ倉庫に格納されています
お勧めダウンロード(丸ごと取り込み)ソフト3
- 1 :名無しさん@お腹いっぱい。:2007/02/06(火) 19:13:37 ID:SEh3Iu6i0.net
- 過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
- 253 :名無しさん@お腹いっぱい。:2008/03/04(火) 23:58:34 ID:8O1P5E4A0.net
- irvineでも巡集でもURLを直接指定すればええやん
- 254 :名無しさん@お腹いっぱい。:2008/03/18(火) 21:59:21 ID:ZzxB85Z00.net
- すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
- 255 :名無しさん@お腹いっぱい。:2008/03/19(水) 12:43:47 ID:YKorTSpT0.net
- >>254
んなわけない
- 256 :名無しさん@お腹いっぱい。:2008/03/20(木) 01:58:21 ID:m223Zsx40.net
- ありがとうございます!
- 257 :名無しさん@お腹いっぱい。:2008/03/24(月) 04:25:21 ID:w4eXPHNQ0.net
- サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
- 258 :名無しさん@お腹いっぱい。:2008/04/11(金) 08:00:28 ID:JS6+SD8u0.net
- そろそろ答えてください
- 259 :名無しさん@お腹いっぱい。:2008/04/13(日) 20:04:32 ID:oGL9AkZ60.net
- まだだ、まだ答えんよ
- 260 :名無しさん@お腹いっぱい。:2008/04/14(月) 19:23:15 ID:v2R7+9CM0.net
- 雨は使ったことない(´・ω・`)
- 261 :名無しさん@お腹いっぱい。:2008/04/18(金) 04:55:05 ID:UhKCBHwm0.net
- 巡集の設定で聞きたいんですが
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
- 262 :名無しさん@お腹いっぱい。:2008/04/18(金) 05:11:53 ID:Ye4EJlp40.net
- >>261
フィルタを使えばいけます
- 263 :名無しさん@お腹いっぱい。:2008/04/18(金) 14:35:41 ID:UhKCBHwm0.net
- その設定をおねがいします><
- 264 :名無しさん@お腹いっぱい。:2008/04/22(火) 07:20:07 ID:ZhYRKd640.net
- 普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
- 265 :名無しさん@お腹いっぱい。:2008/04/26(土) 12:43:45 ID:bWElsVFw0.net
- 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
- 266 :名無しさん@お腹いっぱい。:2008/04/26(土) 14:34:15 ID:xuojH8LA0.net
- ダイアログに出ているタイトル
- 267 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:11:02 ID:t9WSIx9k0.net
- 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
- 268 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:11:26 ID:t9WSIx9k0.net
- 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
- 269 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:19:45 ID:cHvd4SHv0.net
- あるわけねーだろ
- 270 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:23:28 ID:Mg38eEgV0.net
- メモ帳
- 271 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:34:59 ID:t9WSIx9k0.net
- そうですか・・・残念だぴょん・・・・・・
- 272 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:01:15 ID:6J6AlWWJ0.net
- >>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
- 273 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:27:05 ID:t9WSIx9k0.net
- >>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
- 274 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:29:51 ID:GHBwk8a80.net
- 端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う
- 275 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:36:07 ID:Mg38eEgV0.net
- >>273
設定でスレッドタイトル=ファイル名は可能
- 276 :名無しさん@お腹いっぱい。:2008/05/06(火) 04:34:03 ID:pWIAuxdS0.net
- >>273
FirefoxだったらScrapBookをすすめるんだがな。
- 277 :名無しさん@お腹いっぱい。:2008/05/06(火) 19:54:31 ID:SBxlMPDL0.net
- 最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
- 278 :名無しさん@お腹いっぱい。:2008/05/10(土) 04:00:05 ID:g0wuH1J20.net
- 日本語でおk
- 279 :名無しさん@お腹いっぱい。:2008/05/11(日) 17:13:40 ID:5I6LyxnA0.net
- website explorer使ってる人俺以外にもいるのかな
- 280 :名無しさん@お腹いっぱい。:2008/05/11(日) 20:39:05 ID:OLc5kE2C0.net
- 使ってるけど丸ごと取り込みには使わないな
- 281 :名無しさん@お腹いっぱい。:2008/05/12(月) 10:37:10 ID:9PCKZ1Jr0.net
- Firefox使いの俺はFownThemAll!とScrapBookだ。
- 282 :名無しさん@お腹いっぱい。:2008/05/12(月) 22:24:48 ID:tJ0QtoQm0.net
- お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
- 283 :名無しさん@お腹いっぱい。:2008/05/12(月) 23:42:25 ID:zqRUnBa00.net
- ダウンロードソフトはダウンロード板の管轄じゃないの?
- 284 :名無しさん@お腹いっぱい。:2008/05/13(火) 02:25:08 ID:ErVJOT7a0.net
- こっちじゃね?
ダウンローダー総合スレ Part2
http://pc11.2ch.net/test/read.cgi/software/1190549945/
- 285 :282:2008/05/13(火) 06:41:48 ID:/touQVIB0.net
- スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
- 286 :名無しさん@お腹いっぱい。:2008/05/27(火) 10:00:24 ID:qJm5C59n0.net
- gzipで送信されるページに対応した取り込みソフトはございませんか?
- 287 :名無しさん@お腹いっぱい。:2008/05/30(金) 01:20:05 ID:obDTDq910.net
- 最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
- 288 :名無しさん@お腹いっぱい。:2008/06/03(火) 01:59:41 ID:V0GOfPnQ0.net
- 巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
- 289 :名無しさん@お腹いっぱい。:2008/06/03(火) 07:40:12 ID:d5RR0Fde0.net
- >>288
No ResponseになるURLをフィルタさせる
もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある
- 290 :名無しさん@お腹いっぱい。:2008/06/03(火) 20:59:37 ID:V0GOfPnQ0.net
- >>289
こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・
保存先のブログはシーサーです。
- 291 :名無しさん@お腹いっぱい。:2008/06/16(月) 23:48:15 ID:4NFpHfXZ0.net
- あげ
- 292 :名無しさん@お腹いっぱい。:2008/06/17(火) 07:58:10 ID:iH/5XAaL0.net
- なにか対象の指定の仕方に問題があるような気がする。
- 293 :名無しさん@お腹いっぱい。:2008/07/29(火) 03:34:12 ID:NXDRQEUV0.net
- ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?
- 294 :名無しさん@お腹いっぱい。:2008/08/14(木) 12:22:21 ID:z6Dy8mh40.net
- weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
- 295 :名無しさん@お腹いっぱい。:2008/08/22(金) 18:44:21 ID:jiDXkNV10.net
- Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?
UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
- 296 :名無しさん@お腹いっぱい。:2008/08/25(月) 13:39:00 ID:6nouZRD10.net
- 2chの女神板に貼り付いてるキモオタ共歓喜だな
>
> ありえな〜ぃ! 女神板から画像・動画を自動でまるごとダウンロード
> http://www.savethevenus.com/
>
- 297 :名無しさん@お腹いっぱい。:2008/08/31(日) 01:18:45 ID:ISN52Ea80.net
- 女神板は2chじゃないから
- 298 :名無しさん@お腹いっぱい。:2008/09/10(水) 10:20:54 ID:TJ6Ap/Sl0.net
- ここの移転先教えてくれ
http://sdn255.web.fc2.com/
- 299 :HrSPwiYUsMDh:2008/09/10(水) 10:26:13 ID:ddMYkNpg0.net
- g7z0zX <a href="http://baqkzgurctep.com/">baqkzgurctep</a>, [url=http://knccjehvsqoe.com/]knccjehvsqoe[/url], [link=http://fyoddmbvukja.com/]fyoddmbvukja[/link], http://kfeaukherzmc.com/
- 300 :名無しさん@お腹いっぱい。:2008/09/10(水) 10:53:49 ID:TJ6Ap/Sl0.net
- 準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。
- 301 :名無しさん@お腹いっぱい。:2008/09/10(水) 11:19:00 ID:iOGDU/hx0.net
- 他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である
- 302 :名無しさん@お腹いっぱい。:2008/09/10(水) 12:06:11 ID:TJ6Ap/Sl0.net
- ちょw
たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
- 303 :London:2008/09/10(水) 12:13:50 ID:iwCGOnB80.net
- wAetOc <a href="http://jphcmeellktk.com/">jphcmeellktk</a>, [url=http://auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=http://unnngecegnmn.com/]unnngecegnmn[/link], http://hxtuikvjgkcq.com/
- 304 :名無しさん@お腹いっぱい。:2008/09/10(水) 12:18:18 ID:Cga7s0C10.net
- ファイル名を変えたらリンクが正しく動作しなくなるだろ…
- 305 :名無しさん@お腹いっぱい。:2008/09/10(水) 16:40:55 ID:aLDvX6Aj0.net
- 巡集の作者、もしかして株で死んじゃったとか・・・?
- 306 :名無しさん@お腹いっぱい。:2008/09/10(水) 23:10:10 ID:TJ6Ap/Sl0.net
- 不吉なこと言うなダニよ
ソース公開して欲しい
- 307 :名無しさん@お腹いっぱい。:2008/09/10(水) 23:35:48 ID:S8J67L6Y0.net
- 巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな
後者に金を払う気があるかは本人次第
- 308 :名無しさん@お腹いっぱい。:2008/09/13(土) 15:46:14 ID:Dn+RZDfP0.net
- ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし
- 309 :名無しさん@お腹いっぱい。:2008/09/14(日) 20:11:32 ID:ukWyxLCq0.net
- 禁止URLとかの機能使えばいいじゃん。
- 310 :名無しさん@お腹いっぱい。:2008/09/23(火) 18:50:45 ID:twI/75ox0.net
- 結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
- 311 :名無しさん@お腹いっぱい。:2008/09/24(水) 01:46:37 ID:hKMSKtdw0.net
- >>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。
一、か二かどっち?
二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;
↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。
- 312 :名無しさん@お腹いっぱい。:2008/09/24(水) 13:41:28 ID:1PhPO/s90.net
- >273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
- 313 :名無しさん@お腹いっぱい。:2008/10/06(月) 15:35:55 ID:eO1CMKz50.net
- こんなソフトありませんか?スレから来ました。
fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。
現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?
コマンドラインで使う類のソフトでもかまいません。
- 314 :313:2008/10/06(月) 16:31:57 ID:eO1CMKz50.net
- Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
http://www.oshiete-kun.net/archives/2008/02/getleft.html
外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
- 315 :313:2008/10/06(月) 18:17:34 ID:eO1CMKz50.net
- wgetで試行錯誤してみたらうまくいきました。
wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)
urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
puts file
urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq
以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/
--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
- 316 :313:2008/10/06(月) 18:21:17 ID:eO1CMKz50.net
- wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。
- 317 :名無しさん@お腹いっぱい。:2008/10/07(火) 00:37:00 ID:k78/uLlJ0.net
- >>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。
- 318 :313:2008/10/07(火) 05:40:38 ID:hu35XLEh0.net
- >>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。
Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm
wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB
この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
- 319 :名無しさん@お腹いっぱい。:2008/10/07(火) 06:33:16 ID:k78/uLlJ0.net
- >>318
ありがとうございます!これでやってみます。
- 320 :名無しさん@お腹いっぱい。:2008/10/07(火) 07:56:16 ID:pjeOFoUzO.net
- パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
- 321 :名無しさん@お腹いっぱい。:2008/10/09(木) 19:17:17 ID:rJyyGwzD0.net
- 巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?
- 322 :名無しさん@お腹いっぱい。:2008/10/11(土) 23:38:49 ID:UlAef+iX0.net
- >>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。
- 323 :名無しさん@お腹いっぱい。:2008/10/14(火) 05:43:24 ID:CWdTo3bh0.net
- ttp://users.ugent.be/~bpuype/wget/
- 324 :名無しさん@お腹いっぱい。:2008/10/18(土) 09:14:27 ID:NA8ZY32U0.net
- マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も
ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
- 325 :名無しさん@お腹いっぱい。:2008/10/20(月) 21:48:39 ID:SV8NrUaK0.net
- 苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。
1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。
2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
- 326 :名無しさん@お腹いっぱい。:2008/10/20(月) 21:49:38 ID:SV8NrUaK0.net
- 3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz
4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。
どうでもいいですが、DLしたサイトは東進 過去問データベースです。
- 327 :名無しさん@お腹いっぱい。:2008/10/20(月) 23:16:00 ID:vXNKs2Pn0.net
- 報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね
- 328 :名無しさん@お腹いっぱい。:2008/10/21(火) 06:16:41 ID:r9pcwQQ+0.net
- 追記
Teleport Proは65530ファイルでDLを打ち切る様子。
- 329 :名無しさん@お腹いっぱい。:2008/10/22(水) 14:47:13 ID:Uty5mEif0.net
- FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・
- 330 :名無しさん@お腹いっぱい。:2008/10/26(日) 22:56:41 ID:Z0qQpGL90.net
- >>328
使えにゃい。
>>329 スレ違い 紙とか。
- 331 :名無しさん@お腹いっぱい。:2008/11/08(土) 09:57:14 ID:HMLV6FJZ0.net
- サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません
- 332 :名無しさん@お腹いっぱい。:2008/11/09(日) 05:43:33 ID:r9fZofmi0.net
- Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?
- 333 :名無しさん@お腹いっぱい。:2008/11/10(月) 12:34:07 ID:RJUgrUkx0.net
- うん
- 334 :名無しさん@お腹いっぱい。:2008/11/12(水) 09:40:33 ID:199gHslN0.net
- dlkey突破できる奴が有れば…
- 335 :名無しさん@お腹いっぱい。:2008/11/15(土) 02:12:07 ID:0sXE2VgW0.net
- JustDiver 2.0
- 336 :名無しさん@お腹いっぱい。:2008/11/17(月) 23:17:57 ID:bYSAyiWi0.net
- HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。
デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?
- 337 :名無しさん@お腹いっぱい。:2008/11/26(水) 22:46:57 ID:AvoPmSlt0.net
- http://www.doblog.com/weblog/myblog/31550
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz
- 338 :337:2008/11/27(木) 07:07:22 ID:1gPOJKDS0.net
- 巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。
http://www.doblog.com/weblog/myblog/31550*
http://img.doblog.com/32000/u31550/*
残りはコメントです。 引き続きよろしくお願いします。 orz
- 339 :名無しさん@お腹いっぱい。:2008/11/27(木) 10:21:47 ID:o5f/E9xS0.net
- 「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。
予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。
沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。
- 340 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:06:37 ID:qDOzkieX0.net
- もうこういうソフトは需要がないかねえ…
- 341 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:58:34 ID:P2sFxOkY0.net
- Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな
- 342 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:59:18 ID:qDOzkieX0.net
- 動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない
- 343 :名無しさん@お腹いっぱい。:2008/12/30(火) 22:10:50 ID:fX4eASw70.net
- @wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
- 344 :名無しさん@お腹いっぱい。:2008/12/31(水) 09:18:41 ID:rscijB3A0.net
- 取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る
- 345 :名無しさん@お腹いっぱい。:2009/01/02(金) 01:44:45 ID:OLqz4XAA0.net
- FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。
- 346 :名無しさん@お腹いっぱい。:2009/01/03(土) 23:05:19 ID:PUJY1CSF0.net
- Gethtmlについての質問です。
オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。
DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
- 347 :名無しさん@お腹いっぱい。:2009/01/04(日) 10:03:30 ID:7KtylUIv0.net
- >>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
- 348 :名無しさん@お腹いっぱい。:2009/01/04(日) 10:40:47 ID:agtqcM4Z0.net
- >>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。
- 349 :名無しさん@お腹いっぱい。:2009/01/04(日) 11:31:36 ID:1GxGvmcA0.net
- >>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
- 350 :名無しさん@お腹いっぱい。:2009/01/04(日) 12:47:15 ID:zOoDAii/0.net
- アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
- 351 :名無しさん@お腹いっぱい。:2009/01/04(日) 20:29:51 ID:thlvUT4J0.net
- サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
- 352 :名無しさん@お腹いっぱい。:2009/01/06(火) 19:35:25 ID:HKJ+mumj0.net
- ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
総レス数 747
193 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200