■ このスレッドは過去ログ倉庫に格納されています
お勧めダウンロード(丸ごと取り込み)ソフト3
- 1 :名無しさん@お腹いっぱい。:2007/02/06(火) 19:13:37 ID:SEh3Iu6i0.net
- 過去ログ
お勧めダウンロード(丸ごと取り込み)ソフト
http://pc5.2ch.net/test/read.cgi/software/998567803/
お勧めダウンロード(丸ごと取り込み)ソフト2
http://pc9.2ch.net/test/read.cgi/software/1085915277/
- 571 :名無しさん@お腹いっぱい。:2014/06/06(金) 10:55:15.35 ID:zlKKgRCS0.net
- IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
- 572 :名無しさん@お腹いっぱい。:2014/06/15(日) 09:25:01.74 ID:hsbulYYi0.net
- >>566
スレ離れてて遅レスになったけどもうできた?
- 573 :名無しさん@お腹いっぱい。:2014/06/16(月) 23:00:28.10 ID:m0YS9fWe0.net
- >>572
できてないよorz
GetHTMLWでいいの?
フォレストとりこめたなんてすごいよ
よくわかったね
- 574 :名無しさん@お腹いっぱい。:2014/06/17(火) 06:39:41.44 ID:B5QBqdwa0.net
- atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
- 575 :名無しさん@お腹いっぱい。:2014/06/17(火) 09:10:09.25 ID:x5D8mRI50.net
- wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
- 576 :名無しさん@お腹いっぱい。:2014/06/17(火) 12:33:19.19 ID:B5QBqdwa0.net
- 構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
- 577 :名無しさん@お腹いっぱい。:2014/06/17(火) 12:51:38.14 ID:x5D8mRI50.net
- 管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
- 578 :名無しさん@お腹いっぱい。:2014/06/17(火) 13:55:07.26 ID:W7OE9+f10.net
- >>573
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
- 579 :名無しさん@お腹いっぱい。:2014/06/17(火) 15:11:46.11 ID:6Cl5a3940.net
- φ(.. )メモメモ
- 580 :名無しさん@お腹いっぱい。:2014/06/17(火) 21:18:13.55 ID:n2xsu56C0.net
- >>578
レスありがと
やってみるよ
できたら報告にきます
報告なければできなかったということで
あいつアホだったかとでも思っててくださいw
総レス数 747
193 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★