■ このスレッドは過去ログ倉庫に格納されています
お勧めダウンロード(丸ごと取り込み)ソフト3
- 227 :名無しさん@お腹いっぱい。:2008/01/26(土) 23:17:56 ID:Nych28nF0.net
- 219です。
mms://ms2.primestage.net/yozemi/center2008_en_q1.wmv
このURLはどう見つければよいのですか?
- 228 :名無しさん@お腹いっぱい。:2008/01/26(土) 23:34:13 ID:Vw9+2j2y0.net
- >>227
>>220に誘導されてるだろ
向こうのスレで聞いておいで
- 229 :名無しさん@お腹いっぱい。:2008/01/27(日) 04:41:59 ID:2s4iBkil0.net
- gethtmlwはずいぶん昔に使ってたけど、今でも地味に更新してるのね
- 230 :名無しさん@お腹いっぱい。:2008/01/27(日) 08:36:39 ID:Xxz+W6Ae0.net
- 初心者にお勧めの物ってどれになりますか?
weboxはインストールしてみたのですが、win32が存在しません となって使えませんでした。
いまはgethtmlwを試してみてるのですが、取得条件の拡張子設定の記述がうまくいきません。
- 231 :名無しさん@お腹いっぱい。:2008/01/27(日) 10:02:21 ID:2s4iBkil0.net
- 初心者なら「巡集」があらゆる面で初心者向けに配慮されてるように感じたので、巡集をおすすめするね。
- 232 :名無しさん@お腹いっぱい。:2008/01/27(日) 10:20:40 ID:suXR9EeP0.net
- 準州の作者はいいセンスしてたよなあ
俺がロックフェラーならパトロンになってやるんだが
- 233 :名無しさん@お腹いっぱい。:2008/01/27(日) 10:54:18 ID:Xxz+W6Ae0.net
- >>231
巡集使ってみました。gethtmlwよりわかりやすいです。
URLフィルタの除外の際の記述方法というのはどこかに書いてないのでしょうか?
readme.txtには特に書いてません。それとも一般的に決められた記述法があるのでしょうか?
- 234 :名無しさん@お腹いっぱい。:2008/01/27(日) 11:58:42 ID:2s4iBkil0.net
- gethtmlwをインストールしたフォルダにあるgethtmlw.txtを開いて
中身を「フィルタ」で検索してみるがよろし
- 235 :名無しさん@お腹いっぱい。:2008/01/27(日) 12:50:55 ID:Xxz+W6Ae0.net
- >>234
gethtmlwの記述方法は見ました、2,3割程度しか理解してませんが
巡集における記述方法は別ですよね? 巡集における記述方法を教えてください。
- 236 :名無しさん@お腹いっぱい。:2008/01/27(日) 13:39:28 ID:s6MxY/jc0.net
- >>225
レスありがとうございます。
右のリンク先をクリックするとアーカイブで表示されるのでアーカイブ
されているという意味だと思っていました。
WeBoxだと取り込めますができれば全て巡集で取り込みたいと思っていたの
ですが・・・
お手数お掛けしました。
ありがとうございます。
- 237 :名無しさん@お腹いっぱい。:2008/01/27(日) 19:04:30 ID:2s4iBkil0.net
- >>235
ちょっと勘違いしてしまった。これは失礼。
巡集だと、そう難しいものでもないとは思うけども。
具体的にどういうフィルタをかけたいのか教えてくれれば説明しやすいかな。
- 238 :名無しさん@お腹いっぱい。:2008/01/30(水) 01:36:11 ID:NOmqzNMO0.net
- 巡集でarchiveを保存しようとするとエラーになるんだけど
これはどうしようもないの?
それとも他のならできる?
- 239 :名無しさん@お腹いっぱい。:2008/02/08(金) 00:48:18 ID:LyUhp1gB0.net
- http://mayura.jp/blog/
このblogがうまく取り込めない。
顔アイコンの画像がhtmlファイルではなく、ヘッダに指定されているcss.php
にリンクされているのが原因だと思うんだけれど。
うまい方法は無いかな?
- 240 :名無しさん@お腹いっぱい。:2008/02/11(月) 20:21:44 ID:dYHnvlVd0.net
- ネトラン推奨
ttp://oshiete.new-akiba.com/archives/2008/02/getleft.html
- 241 :名無しさん@お腹いっぱい。:2008/02/12(火) 01:13:13 ID:jIBSXkqy0.net
- Super Capture ってなくなっちゃったんですか?
すごく便利だったのに…。
どこかにダウンロードできるとこ、ないですかね?
- 242 :名無しさん@お腹いっぱい。:2008/02/12(火) 15:44:15 ID:pEdZWnO30.net
- >>241
ググレカレー。
落とせるところがちらほらあるジャマイカ。
- 243 :名無しさん@お腹いっぱい。:2008/02/12(火) 21:02:05 ID:Ftzz/E6Q0.net
- http://www.gymfan.de/gym_pic.html
↑このサイトなんですが、サイトそのものはhttp://www.gymfan.de/
というところにあって、ソースを見ると画像はhttp://www.gymfan-help.de/というところに置いてあるようです。
FDM、webox、DSdownloader、巡集で試したんですが設定が悪いのかうまくいきませんでした。
どうやればうまくできるか分かる人いませんか?
- 244 :名無しさん@お腹いっぱい。:2008/02/12(火) 22:45:39 ID:S2Vi01b30.net
- 取り込みソフトってそんなに便利なのかね。
というより、そんなに沢山取り込んでなんか得するのか?
よくわからん。
- 245 :名無しさん@お腹いっぱい。:2008/02/12(火) 23:31:39 ID:v9bgFmos0.net
- >>244
君は「オナニーってなんかの役に立つの?なんか得するの?」と言ってるようなもんだな。
閉鎖したお気に入りサイトを記念に残しておきたいとか、
オフライン環境でも活用したい情報満載だとか、
日替わりのエロ画像を残さずコレクションしたいとか、
世の中には君と価値観の違う人がたくさんいるってことだよ。
>>243
巡集1.7.1Aで設定の「取得するファイル類」のところで「上位階層」「外部サーバ」にチェックして
http://www.gymfan.de/1999/bg1999_1.htmlの取得を試してみたら
ちゃんとwww.gymfan-help.deの画像も落ちてきてるけどこれじゃだめなん?
- 246 :名無しさん@お腹いっぱい。:2008/02/12(火) 23:48:23 ID:jIBSXkqy0.net
- >>242
自分が欲しいのは↓ここで紹介されてるSuper Capture です。
Super Capture - ベクターソフトニュース
http://www.vector.co.jp/magazine/softnews/050730/n0507301.html
イニシアという会社が作っていたのですが、会社のサイト(http://www.inisia.co.jp/)
はもうなくなっていますし、ベクターなどでも、ダウンロードできるファイルがなくなっ
ちゃいました。
Super Capture とぐぐって出てくるのは下のSuper Screen Captureというやつで
違うようなのですが…。
Super Screen Capture 2.3 日本語版を無料でダウンロード- Brothersoft.jp
http://super-screen-capture.jp.brothersoft.com/
Super Captureがダウンロードできるところがあったら、教えてください。
- 247 :名無しさん@お腹いっぱい。:2008/02/13(水) 01:43:15 ID:95oy4e+k0.net
- web.archive.orgで体験版は落とせたけど、製品版は見当たらないですね。>Super Capture
- 248 :名無しさん@お腹いっぱい。:2008/02/13(水) 01:49:38 ID:mFV8vQoX0.net
- おま、どうしてそこまで辿り付けるのに…検索結果は1位以外も見ようよ。
なんなら -screen くっつけて検索汁。
- 249 :名無しさん@お腹いっぱい。:2008/02/13(水) 01:53:22 ID:zIVsZC2A0.net
- >>246
http://web.archive.org/web/*/http://www.inisia.co.jp/
1分であったぞ
- 250 :243:2008/02/13(水) 13:10:32 ID:E8CaTYjJ0.net
- >>245
サンキュ。設定いじったら巡集でできた。
- 251 :名無しさん@お腹いっぱい。:2008/03/02(日) 15:32:26 ID:SlT8oVxO0.net
-
- 252 :名無しさん@お腹いっぱい。:2008/03/02(日) 22:55:44 ID:XBPQmEY90.net
- 以下のフラッシュボタンのリンク先の音楽をダウンロードしたいのですが、
適当なソフトはあるでしょうか?
http://music.lionsgate.com/rambo/
- 253 :名無しさん@お腹いっぱい。:2008/03/04(火) 23:58:34 ID:8O1P5E4A0.net
- irvineでも巡集でもURLを直接指定すればええやん
- 254 :名無しさん@お腹いっぱい。:2008/03/18(火) 21:59:21 ID:ZzxB85Z00.net
- すみません、質問なのです
ダウンロードソフトって目的のサイトがweb上に上げているものすべて、
.htaccessやリンクの貼っていないファイルもダウンロードできるんでしょうか?
- 255 :名無しさん@お腹いっぱい。:2008/03/19(水) 12:43:47 ID:YKorTSpT0.net
- >>254
んなわけない
- 256 :名無しさん@お腹いっぱい。:2008/03/20(木) 01:58:21 ID:m223Zsx40.net
- ありがとうございます!
- 257 :名無しさん@お腹いっぱい。:2008/03/24(月) 04:25:21 ID:w4eXPHNQ0.net
- サムネイルの先にある本画像を取得するソフトでダウンローダー雨を知らずに
Bulk Image Downloaderって海外のソフト導入したんだけど使ってる人いますか?
英語で分かりづらいしセキュリティとかちょっと不安なので雨に乗換えようかな
- 258 :名無しさん@お腹いっぱい。:2008/04/11(金) 08:00:28 ID:JS6+SD8u0.net
- そろそろ答えてください
- 259 :名無しさん@お腹いっぱい。:2008/04/13(日) 20:04:32 ID:oGL9AkZ60.net
- まだだ、まだ答えんよ
- 260 :名無しさん@お腹いっぱい。:2008/04/14(月) 19:23:15 ID:v2R7+9CM0.net
- 雨は使ったことない(´・ω・`)
- 261 :名無しさん@お腹いっぱい。:2008/04/18(金) 04:55:05 ID:UhKCBHwm0.net
- 巡集の設定で聞きたいんですが
http://www.itmedia.co.jp/help/tips/linux/install.html
このページの緑の部分だけ(LinuxTips)だけ取り込みたいんですけど
どう設定したらいけますか?
- 262 :名無しさん@お腹いっぱい。:2008/04/18(金) 05:11:53 ID:Ye4EJlp40.net
- >>261
フィルタを使えばいけます
- 263 :名無しさん@お腹いっぱい。:2008/04/18(金) 14:35:41 ID:UhKCBHwm0.net
- その設定をおねがいします><
- 264 :名無しさん@お腹いっぱい。:2008/04/22(火) 07:20:07 ID:ZhYRKd640.net
- 普通にダウンロ−ドした後htmlのソースとにらめっこすればよいのではなかろうか
- 265 :名無しさん@お腹いっぱい。:2008/04/26(土) 12:43:45 ID:bWElsVFw0.net
- 巡集でユーザ認証の設定方法が分かりません…というか認証できません(サイトから認証エラーが返ります)。
「ユーザー認証を行う」設定のユーザ名とパスワードは分かりますが、認証名というのは何を入れるのでしょうか?
- 266 :名無しさん@お腹いっぱい。:2008/04/26(土) 14:34:15 ID:xuojH8LA0.net
- ダイアログに出ているタイトル
- 267 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:11:02 ID:t9WSIx9k0.net
- 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
- 268 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:11:26 ID:t9WSIx9k0.net
- 2ちゃんで ある板のスレを全部保存したいのですが
なんかいいソフトはありませんか?
- 269 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:19:45 ID:cHvd4SHv0.net
- あるわけねーだろ
- 270 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:23:28 ID:Mg38eEgV0.net
- メモ帳
- 271 :名無しさん@お腹いっぱい。:2008/05/05(月) 18:34:59 ID:t9WSIx9k0.net
- そうですか・・・残念だぴょん・・・・・・
- 272 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:01:15 ID:6J6AlWWJ0.net
- >>268
2ch専ブラはログを常に保存しているが、これじゃダメなのか?
- 273 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:27:05 ID:t9WSIx9k0.net
- >>272
どうしてもhtmlで保存したいんです
専ブラで大量に保存したdatをhtmlに変換という方法を試しましたが
その方法だとスレッドタイトルがファイルの名前に出てこないので
開くまで、そのhtmlが何のスレのログか分からなくなってしまうんです
- 274 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:29:51 ID:GHBwk8a80.net
- 端的に言うと規制の対象になるよ
おそらく保存どころか読みさえできなくなると思う
- 275 :名無しさん@お腹いっぱい。:2008/05/05(月) 19:36:07 ID:Mg38eEgV0.net
- >>273
設定でスレッドタイトル=ファイル名は可能
- 276 :名無しさん@お腹いっぱい。:2008/05/06(火) 04:34:03 ID:pWIAuxdS0.net
- >>273
FirefoxだったらScrapBookをすすめるんだがな。
- 277 :名無しさん@お腹いっぱい。:2008/05/06(火) 19:54:31 ID:SBxlMPDL0.net
- 最近「丸ごと取り込み」したいソフトに特に会わないなあ
ソフトの更新がほとんどないのもそのせいかも
テンプレのソフトを見ても下の海外のものしか更新がない
- 278 :名無しさん@お腹いっぱい。:2008/05/10(土) 04:00:05 ID:g0wuH1J20.net
- 日本語でおk
- 279 :名無しさん@お腹いっぱい。:2008/05/11(日) 17:13:40 ID:5I6LyxnA0.net
- website explorer使ってる人俺以外にもいるのかな
- 280 :名無しさん@お腹いっぱい。:2008/05/11(日) 20:39:05 ID:OLc5kE2C0.net
- 使ってるけど丸ごと取り込みには使わないな
- 281 :名無しさん@お腹いっぱい。:2008/05/12(月) 10:37:10 ID:9PCKZ1Jr0.net
- Firefox使いの俺はFownThemAll!とScrapBookだ。
- 282 :名無しさん@お腹いっぱい。:2008/05/12(月) 22:24:48 ID:tJ0QtoQm0.net
- お邪魔します。
ttp://de-lax.com/mg/login/dl.html
の動画をダウンロードしたいのですが、
GetASFStream
SWF Cache Viewer
で試してみたところうまくいきませんでした。
どなたかいいフリーソフトをご存知でしたら教えてください。
よろしくお願いいたします。
(会員登録はttp://de-lax.com/freemembers.htmlから。
無料かつ手軽で、すぐに登録解除できます)
- 283 :名無しさん@お腹いっぱい。:2008/05/12(月) 23:42:25 ID:zqRUnBa00.net
- ダウンロードソフトはダウンロード板の管轄じゃないの?
- 284 :名無しさん@お腹いっぱい。:2008/05/13(火) 02:25:08 ID:ErVJOT7a0.net
- こっちじゃね?
ダウンローダー総合スレ Part2
http://pc11.2ch.net/test/read.cgi/software/1190549945/
- 285 :282:2008/05/13(火) 06:41:48 ID:/touQVIB0.net
- スレ違い失礼しました。
ご丁寧に教えていただきありがとうございました。
- 286 :名無しさん@お腹いっぱい。:2008/05/27(火) 10:00:24 ID:qJm5C59n0.net
- gzipで送信されるページに対応した取り込みソフトはございませんか?
- 287 :名無しさん@お腹いっぱい。:2008/05/30(金) 01:20:05 ID:obDTDq910.net
- 最近取り込みたかったりするページがしばしばwikiの形態を取ってたりFlashばりばりだったりするのよね
こういうソフトもそろそろ時代遅れなのかしら…
- 288 :名無しさん@お腹いっぱい。:2008/06/03(火) 01:59:41 ID:V0GOfPnQ0.net
- 巡集、15分過ぎたくらいからずっとエラー吐き続けてそれ以降
保存ができなくなるんですが・・・
誰か解決策わかる方がいたらお願いします。
保存先はブログです。
- 289 :名無しさん@お腹いっぱい。:2008/06/03(火) 07:40:12 ID:d5RR0Fde0.net
- >>288
No ResponseになるURLをフィルタさせる
もしくはもう1個巡集を起動してダウンロード
エラーが出るたびに繰り返せば全て保存出来る
ような覚えがある
- 290 :名無しさん@お腹いっぱい。:2008/06/03(火) 20:59:37 ID:V0GOfPnQ0.net
- >>289
こんな早くレスもらえると思ってませんでした。
巡集2個で回してみたところ、しばらくはダウンロードするんですが
やはり数ファイルで止まり、そのうち1ファイルごとに停止→交代を
繰り返さなければならなくなりました・・・
保存先のブログはシーサーです。
- 291 :名無しさん@お腹いっぱい。:2008/06/16(月) 23:48:15 ID:4NFpHfXZ0.net
- あげ
- 292 :名無しさん@お腹いっぱい。:2008/06/17(火) 07:58:10 ID:iH/5XAaL0.net
- なにか対象の指定の仕方に問題があるような気がする。
- 293 :名無しさん@お腹いっぱい。:2008/07/29(火) 03:34:12 ID:NXDRQEUV0.net
- ページ上のボタンの名前を指定して特定のボタンだけクリックしたのと同じ
扱いでまとめてダウンロードできるソフトはありませんか?
- 294 :名無しさん@お腹いっぱい。:2008/08/14(木) 12:22:21 ID:z6Dy8mh40.net
- weboxは、保存した元のサイトページが更新されると
なぜか一緒に保存した内容も更新(上書き?)されてしまうので、困っています
更新されないように設定できる、HP取り込みソフトはありませんか?
フリーでもシェアでもかまいません。
- 295 :名無しさん@お腹いっぱい。:2008/08/22(金) 18:44:21 ID:jiDXkNV10.net
- Vista で GetHTMLW を起動したら、CPU 食いまくって GUI 画面が出るところま
で来ないのですが、何かチェックすべきところはありますか?
UAC は切っていて、管理者として実行し、
Windows ファイアウォールで除外ソフトにしてもだめでした。
- 296 :名無しさん@お腹いっぱい。:2008/08/25(月) 13:39:00 ID:6nouZRD10.net
- 2chの女神板に貼り付いてるキモオタ共歓喜だな
>
> ありえな〜ぃ! 女神板から画像・動画を自動でまるごとダウンロード
> http://www.savethevenus.com/
>
- 297 :名無しさん@お腹いっぱい。:2008/08/31(日) 01:18:45 ID:ISN52Ea80.net
- 女神板は2chじゃないから
- 298 :名無しさん@お腹いっぱい。:2008/09/10(水) 10:20:54 ID:TJ6Ap/Sl0.net
- ここの移転先教えてくれ
http://sdn255.web.fc2.com/
- 299 :HrSPwiYUsMDh:2008/09/10(水) 10:26:13 ID:ddMYkNpg0.net
- g7z0zX <a href="http://baqkzgurctep.com/">baqkzgurctep</a>, [url=http://knccjehvsqoe.com/]knccjehvsqoe[/url], [link=http://fyoddmbvukja.com/]fyoddmbvukja[/link], http://kfeaukherzmc.com/
- 300 :名無しさん@お腹いっぱい。:2008/09/10(水) 10:53:49 ID:TJ6Ap/Sl0.net
- 準州で取得したHTMLに元のページのタイトルを入れてダウンロードする方法も頼む。
- 301 :名無しさん@お腹いっぱい。:2008/09/10(水) 11:19:00 ID:iOGDU/hx0.net
- 他人にきちんと説明出来ないことと
自力で解決出来ないことはコインの両面である
- 302 :名無しさん@お腹いっぱい。:2008/09/10(水) 12:06:11 ID:TJ6Ap/Sl0.net
- ちょw
たとえば、
ブログタイトルhogeというのがあって
hogeの9月8日の日記のタイトル名がhoge-hageだとしたら
現状ではURL名でしか取得できないけど、hoge-hage.htmlという形で取得したいの!
- 303 :London:2008/09/10(水) 12:13:50 ID:iwCGOnB80.net
- wAetOc <a href="http://jphcmeellktk.com/">jphcmeellktk</a>, [url=http://auiaplkzgrwg.com/]auiaplkzgrwg[/url], [link=http://unnngecegnmn.com/]unnngecegnmn[/link], http://hxtuikvjgkcq.com/
- 304 :名無しさん@お腹いっぱい。:2008/09/10(水) 12:18:18 ID:Cga7s0C10.net
- ファイル名を変えたらリンクが正しく動作しなくなるだろ…
- 305 :名無しさん@お腹いっぱい。:2008/09/10(水) 16:40:55 ID:aLDvX6Aj0.net
- 巡集の作者、もしかして株で死んじゃったとか・・・?
- 306 :名無しさん@お腹いっぱい。:2008/09/10(水) 23:10:10 ID:TJ6Ap/Sl0.net
- 不吉なこと言うなダニよ
ソース公開して欲しい
- 307 :名無しさん@お腹いっぱい。:2008/09/10(水) 23:35:48 ID:S8J67L6Y0.net
- 巡集
Teleport Pro(俺はUltra)
この2本立てで困ったことないな
後者に金を払う気があるかは本人次第
- 308 :名無しさん@お腹いっぱい。:2008/09/13(土) 15:46:14 ID:Dn+RZDfP0.net
- ブログでぜったいありえない1990年代前の日記等を除外するにはどうすればいいですか?
白紙ページを延々とダウンロードするので鯖にも悪いし
- 309 :名無しさん@お腹いっぱい。:2008/09/14(日) 20:11:32 ID:ukWyxLCq0.net
- 禁止URLとかの機能使えばいいじゃん。
- 310 :名無しさん@お腹いっぱい。:2008/09/23(火) 18:50:45 ID:twI/75ox0.net
- 結構大きいサイトを巡集でダウンロードしたいけどうまくいかない。
料理レシピサイトを落としたいんだけど以前落とした時は
検索結果が出てくれなかったりリンク切れがあったりして完璧にはできなかったから
どうにかして完璧に落としたいんだけど1個1個アドレスをいれるしかない?
ちなみにエキサイトのレシピサイトを落としたい。
- 311 :名無しさん@お腹いっぱい。:2008/09/24(水) 01:46:37 ID:hKMSKtdw0.net
- >>273 ID:t9WSIx9k0
一、●持ちしか見れないある板のスレ全部を保存したい。
二、一で保存したものを再うpしたい。
一、か二かどっち?
二だとしたらやってはいけないようだ(ソースらしきもの)↓
http://jbbs.livedoor.jp/bbs/read.cgi/computer/682/1144317464/691
>やめてくれっていわれたんで(^^;
↑ひろゆきに言われたのか運営の誰かに言われたのかは不明。
- 312 :名無しさん@お腹いっぱい。:2008/09/24(水) 13:41:28 ID:1PhPO/s90.net
- >273
亀レスだが「2ちゃんねるコンバーター DAT2HTML」を使えば、>275も書いたように
スレッドタイトル=ファイル名で、専ブラで保存した大量のdatをhtmlかtxtに一括変換可。
- 313 :名無しさん@お腹いっぱい。:2008/10/06(月) 15:35:55 ID:eO1CMKz50.net
- こんなソフトありませんか?スレから来ました。
fc2などの画像サーバーが独立したWebサイトにも対応した
丸ごととりこみ保存するソフトを探しています。
現在は WeBoXをつかっているのですが、
fc2のブログなどでは、画像サーバーが別サーバーなので
同じブログ内でもリンク先画像などが取り込むことができません。
このような状況に対応できるダウンローダーはありませんでしょうか?
コマンドラインで使う類のソフトでもかまいません。
- 314 :313:2008/10/06(月) 16:31:57 ID:eO1CMKz50.net
- Getleftでサイトを丸ごと落としオフライン鑑賞 :教えて君.net
http://www.oshiete-kun.net/archives/2008/02/getleft.html
外部リンクを1リンクだけたどって保存できればよいのか?ということで、
こちらのソフトを使ってみているのですが、
下記のようなエラーが頻発し、スキップしても止まってしまうのでダウンロードできません。
困ってしまいました・・・。
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
could not read "(パス)/blog.fc2.com/tag/£A£O": no such file or directory
while executing
"file size $fileName"
(procedure "DownloadLinks" line 39)
invoked from within
"DownloadLinks $urlList $referer $level"
(procedure "Descargar::ControlDownloading" line 21)
invoked from within
"Descargar::ControlDownloading $requestedUrl 1"
(procedure "StartDownload" line 76)
invoked from within
"StartDownload $requestedUrl"
(procedure "AutomaticDownload" line 21)
invoked from within
"AutomaticDownload [mainWin::UrlListSelectedUrl]"
invoked from within
".extFrame.iconFrame.left.start invoke "
invoked from within
".extFrame.iconFrame.left.start instate {pressed !disabled} { .extFrame.iconFrame.left.start state !pressed; .extFrame.iconFrame.left.start invoke } "
(command bound to event)
- 315 :313:2008/10/06(月) 18:17:34 ID:eO1CMKz50.net
- wgetで試行錯誤してみたらうまくいきました。
wgetで一旦htmlのみを取得し、
Rubyのスクリプトで画像サーバーのURLを列挙して(↓な感じの)
urls = []
Dir.glob("hogehoge.blog45.fc2.com/*.html") do |file|
puts file
urls += File.read(file).scan(/blog-imgs-[^\.]*\.fc2\.com/).uniq
end
puts urls.uniq
以下の様に、-D でダウンロードするホストを限定したらうまくいったようです。
wget -rH -l 3 --convert-links -o log.txt -Dhogehoge.blog45.fc2.com,blog-imgs-21.fc2.com,blog-imgs-30.fc2.com,blog-imgs-1.fc2.com,blog-imgs-12.fc2.com http://hogehoge.blog45.fc2.com/
--convert-linksなどをつけないとリンクが相対リンクならないので注意というのと、
あと、fc2は.htmlとなっていてもどうやら動的生成なようで
カレンダーのリンクのせいか、-l 0にすると無限にダウンロードしつづけるため注意です。
(一回やらかしました)
- 316 :313:2008/10/06(月) 18:21:17 ID:eO1CMKz50.net
- wgetでドメインをまたぐ設定(-D)がワイルドカード指定できれば簡単だったのですが・・・
この辺、Unix系の板で聞いてみます。
- 317 :名無しさん@お腹いっぱい。:2008/10/07(火) 00:37:00 ID:k78/uLlJ0.net
- >>313
横レスすみません。レスとても参考になりました。
wgetをwinXPで使いたいのですが
DLできるところ教えてください。
- 318 :313:2008/10/07(火) 05:40:38 ID:hu35XLEh0.net
- >>317
私はcygwinというUNIX風のプログラムを動かす環境をWindowsで入れていましたので、
それでインストールしましたが、
ふつうのWindowバイナリは「wget windows」でぐぐったら見つかりました。
Wget for Windows
http://gnuwin32.sourceforge.net/packages/wget.htm
wget(Windows版) - 俺の基地
http://yakinikunotare.boo.jp/orebase/index.php?wget%A1%CAWindows%C8%C7%A1%CB
この辺ではないでしょうか?試してはないですが。
wgetはコマンドラインのツールなので注意です。
私はバッチファイルを書いて実行してます。
- 319 :名無しさん@お腹いっぱい。:2008/10/07(火) 06:33:16 ID:k78/uLlJ0.net
- >>318
ありがとうございます!これでやってみます。
- 320 :名無しさん@お腹いっぱい。:2008/10/07(火) 07:56:16 ID:pjeOFoUzO.net
- パンドラの動画をダウンロードしてiPodに入れるやり方教えて下さい
- 321 :名無しさん@お腹いっぱい。:2008/10/09(木) 19:17:17 ID:rJyyGwzD0.net
- 巡集ってDLしたファイルを消す方法って
フォルダ排除と設定ファイル排除しかない?
- 322 :名無しさん@お腹いっぱい。:2008/10/11(土) 23:38:49 ID:UlAef+iX0.net
- >>320
パンドラHD導入してファイル落とせばHD仕様の動画はMP4だからそのままipod出来る。
ノーマルはFLVファイルだからエンコしてipodで見られる形式の動画に変換する。
- 323 :名無しさん@お腹いっぱい。:2008/10/14(火) 05:43:24 ID:CWdTo3bh0.net
- ttp://users.ugent.be/~bpuype/wget/
- 324 :名無しさん@お腹いっぱい。:2008/10/18(土) 09:14:27 ID:NA8ZY32U0.net
- マグノリア、手軽にWebページをスクラップ「ホームページスクラップブック」
保存したWebページをPDF/JPEGファイルへ書き出す機能も
ttp://www.forest.impress.co.jp/article/2008/10/17/hpscrapbook.html
- 325 :名無しさん@お腹いっぱい。:2008/10/20(月) 21:48:39 ID:SV8NrUaK0.net
- 苦闘の末DLがうまくいったので記念カキコ。(無駄に長い
認証必要なサイトのDLのためにいろいろ試したので…。
1. Website Explorer
ずっと昔に出会ったソフトがこれだったので、ずっとこれを使ってた。
認証も手軽にできて、細かい設定無しにDLしやすかったのですが、
膨大なデータ(100000ファイル超)のサイトの場合、
解析時のキャッシュが増えるにつれて、かなり処理が重くなる。
負けずに数日動かしていたのですが、
私が馬鹿やってエラー落ちしたので別ソフトを探しました。
2. WinHTTrack
複数URL指定ができていい感じ?
いくつかのサイトを落とすときに利用して気に入った。
しかし、認証に弱い…。
認証に成功するサイトもあるのかもしれませんが、私が試したサイトではダメでした。
どうでもいいかもですが、DLサイト目次みたいなindex.htmlが生成されますが、
charset=iso-8859-1→shift-jisにすれば日本語文字化けは解消されます。
- 326 :名無しさん@お腹いっぱい。:2008/10/20(月) 21:49:38 ID:SV8NrUaK0.net
- 3.WeBoX
DLを試しても一部のファイルしか落ちてこなくて使い物にならない。
恐らく、私が使い方を理解してないのが原因orz
4. Teleport Pro
レビューが少ないのは、日本語化されてないし、有料だからですかね…?
サイトの認証は簡単に成功しました。
DL時の階層保持や、HTML解析設定など、どこをいぢればいいのか少し迷いましたが、
ちょいちょい触ってるうちに理解しました。
結局、目当てのサイトのDLはこれのおかげでうまくいきました。ありがとう。
どうでもいいですが、DLしたサイトは東進 過去問データベースです。
- 327 :名無しさん@お腹いっぱい。:2008/10/20(月) 23:16:00 ID:vXNKs2Pn0.net
- 報告どうも
よく分からないけど海外製のが一番うまくいったりする場合もあるのね
- 328 :名無しさん@お腹いっぱい。:2008/10/21(火) 06:16:41 ID:r9pcwQQ+0.net
- 追記
Teleport Proは65530ファイルでDLを打ち切る様子。
- 329 :名無しさん@お腹いっぱい。:2008/10/22(水) 14:47:13 ID:Uty5mEif0.net
- FirefoxのScrapBookみたいに
すんなりスクラップできるソフトってありますか?
まるごとじゃなくてもいいんです・・・・
- 330 :名無しさん@お腹いっぱい。:2008/10/26(日) 22:56:41 ID:Z0qQpGL90.net
- >>328
使えにゃい。
>>329 スレ違い 紙とか。
- 331 :名無しさん@お腹いっぱい。:2008/11/08(土) 09:57:14 ID:HMLV6FJZ0.net
- サイトに入るときパス認証があってファイル毎DLページの前にDLKEY有るアップローダのファイルってDL出来るやつ有りますか?
パスもKEYも知ってるんですが何分ファイル数が多い(1500以上)もんで…
説明わかりにくくてすいません
- 332 :名無しさん@お腹いっぱい。:2008/11/09(日) 05:43:33 ID:r9fZofmi0.net
- Firefoxのツールバー で使えて 埋め込み動画が落せるのって
ありませんか?
- 333 :名無しさん@お腹いっぱい。:2008/11/10(月) 12:34:07 ID:RJUgrUkx0.net
- うん
- 334 :名無しさん@お腹いっぱい。:2008/11/12(水) 09:40:33 ID:199gHslN0.net
- dlkey突破できる奴が有れば…
- 335 :名無しさん@お腹いっぱい。:2008/11/15(土) 02:12:07 ID:0sXE2VgW0.net
- JustDiver 2.0
- 336 :名無しさん@お腹いっぱい。:2008/11/17(月) 23:17:57 ID:bYSAyiWi0.net
- HTTrackを使っているんですが、FC2のサイトが保存出来ません。
2ヵ所ほど試したんですが、indexのhtmlファイルを1つ保存するだけで終了してしまいます。
デフォルトの状態で保存してみても、リンク全てを保存するを指定してみても駄目でした。
上手く保存する方法は無いでしょうか?
- 337 :名無しさん@お腹いっぱい。:2008/11/26(水) 22:46:57 ID:AvoPmSlt0.net
- http://www.doblog.com/weblog/myblog/31550
ここのブログをコメントと画像を含めて
うまく保存する方法をよろしくお願いします orz
- 338 :337:2008/11/27(木) 07:07:22 ID:1gPOJKDS0.net
- 巡集にて下記ワイルドカード指定を行うことによって無限にダウンロードし続ける心配や
画像については何とかなったのではとおもいます。
http://www.doblog.com/weblog/myblog/31550*
http://img.doblog.com/32000/u31550/*
残りはコメントです。 引き続きよろしくお願いします。 orz
- 339 :名無しさん@お腹いっぱい。:2008/11/27(木) 10:21:47 ID:o5f/E9xS0.net
- 「波乗野郎」が、立ち上げた途端に異常終了する。
何故だ。
今までは動いていたのに。
機械のOSは、XPホームエディション。
予備のWin2kの機械(ファイアウォールとかは同じソフト)でやってみると、
現在、普通に動作している。
XPでも、大昔の設定ファイルを使うと、ちゃんと起動するのだが。
沢山取得先を登録できて、毎週とか毎日とかの取得時間設定が出来て、
使い勝手が良いソフトなんで、捨てたくないんだよーん。
- 340 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:06:37 ID:qDOzkieX0.net
- もうこういうソフトは需要がないかねえ…
- 341 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:58:34 ID:P2sFxOkY0.net
- Wikiとかうまく保存が出来ないことが多いから使わなくなったよ。
ゲームの攻略Wikiとかを人がいない時間に保存して
混んでる時間は保存してる方を見たいんだけどな
- 342 :名無しさん@お腹いっぱい。:2008/12/30(火) 21:59:18 ID:qDOzkieX0.net
- 動的なWikiは根本的に保存に無理あるんじゃないかなあ
保存できるソフトを聞いたことがない
- 343 :名無しさん@お腹いっぱい。:2008/12/30(火) 22:10:50 ID:fX4eASw70.net
- @wikiだったらhtmlだから追っかけることも可能ではあるのだろうけど、サイトごとDLは出来無くされてる見たいなんだよねえ
wikipediaなどはローカルで閲覧するにはデータベースその他を色々やらなきゃならないみたいだし、必要な記事は地道にブラウザ保存しかないかなあ
- 344 :名無しさん@お腹いっぱい。:2008/12/31(水) 09:18:41 ID:rscijB3A0.net
- 取り込みが出来ないから保存しなかったWikiが閉鎖した時は全俺が泣いた
特にゲーム攻略のWikiとかはよく消えてるから困る
- 345 :名無しさん@お腹いっぱい。:2009/01/02(金) 01:44:45 ID:OLqz4XAA0.net
- FirefoxのScrapbookという拡張機能を使って、
ファイル一覧のページで一階層のみ保存、とか。
- 346 :名無しさん@お腹いっぱい。:2009/01/03(土) 23:05:19 ID:PUJY1CSF0.net
- Gethtmlについての質問です。
オプションの -f とはどのような機能なのでしょうか?
説明書ファイル(gethtml.txt)には
"-f Filename" Filename of / terminated URL
と書いてあるのですが意味がよくわかりません。
DL先のフォルダ名を指定するオプションと勘違いして使ってみたのですが、
そうではないようです。変な設定をしてしまったのではないかと思うと心配です。
- 347 :名無しさん@お腹いっぱい。:2009/01/04(日) 10:03:30 ID:7KtylUIv0.net
- >>346
gethtml.txt より
> ・"-f Filename"
> / で終わっている URL の WebPage データのファイル名を指定します。
> 例えば、URL が
> http://www2s.biglobe.ne.jp/~pockey/
> の場合、得られたデータをどんな名前で保存すればよいか分かりません。
> 通常の場合、
> www2s.biglobe.ne.jp\~pockey\index.html なのですが、httpサーバに
> よって違い(MS のサーバは index.htm等)ますので、ここで指定します。
> index.html にしておくのが無難でしょう。デフォルトは index.html。
> 例) -f index.htm
- 348 :名無しさん@お腹いっぱい。:2009/01/04(日) 10:40:47 ID:agtqcM4Z0.net
- >>347
大変申し訳ありません!見逃していました。
重ねてありがとうございます。
- 349 :名無しさん@お腹いっぱい。:2009/01/04(日) 11:31:36 ID:1GxGvmcA0.net
- >>331
そういうのはRubyのWWW::mechanizeとか使えば楽勝だけどな・・・(Perlのでもいいけど)
- 350 :名無しさん@お腹いっぱい。:2009/01/04(日) 12:47:15 ID:zOoDAii/0.net
- アダルトブログの全てのページの画像を一括DLできるソフトってないのでしょうか?
それができなければ、ページごとの画像だけをDLできるソフトというのはあるのでしょうか?
- 351 :名無しさん@お腹いっぱい。:2009/01/04(日) 20:29:51 ID:thlvUT4J0.net
- サイト一括取り込みソフトを探していて、こんなのを見つけたがどんなもんか。
英語だけれど、使いやすい。
PageNest ttp://pagenest.com/index.html
WebStripper系譜のようだ。
- 352 :名無しさん@お腹いっぱい。:2009/01/06(火) 19:35:25 ID:HKJ+mumj0.net
- ScrapBookに掘り下げ機能がありますがこれは指定したURLを含む所のみダウンロードする様には出来ないのでしょうか?
また、出来ないのであればこのような機能を持ったソフトはあるのでしょうか?
- 353 :名無しさん@お腹いっぱい。:2009/01/06(火) 23:49:18 ID:HKJ+mumj0.net
- どうやらWeBOXで出来ますね、すみませんでした
- 354 :名無しさん@お腹いっぱい。:2009/01/12(月) 18:55:19 ID:mtFSF/p40.net
-
以下の動的ページの取り込み方法(オフラインで見たい)がわかる方教えてください。
紹介されている一通りのダウンローダを試しましたが、うまくいきません。
http://www.gamebanshee.com/neverwinternights/
うまく取れないところは、このページの左のリストにある
EquipmentとSpellsのコンテンツでクリックすると右側にサブカテゴリが現れます。
更にクリックすると、ページの中央部に一覧表示されます。
これらをクリックするとONLINEではポップアップ画面が現れ、正常に表示するのですが、
ダウンローダでダウンロード後、OFFLINEで見ようとすると、うまく見れません。
宜しくお願いします。
- 355 :名無しさん@お腹いっぱい。:2009/01/12(月) 19:09:18 ID:Ad7xK/MA0.net
- あ
- 356 :名無しさん@お腹いっぱい。:2009/01/14(水) 04:56:44 ID:XsghDILe0.net
- 基本的にHTMLをみて、ダウンローダーの特性を理解したら
なんとでもなるよ。
wgetなんかでもcssの中で@import とかは無視してくれちゃったり、
hoge.css@mageみたいなUファイル名とCSS指定をしてくれちゃったり、
実際の本物のホスト名を含む絶対アドレスになったいたり
こういうのがあるとサイトが正常に表示できない。
だからそういうのをHTMLを見て判断して、フィルターとなるスクリプトを書いてやれば
よほどの動的サイトでない限りはまるごとダウンロードいける
- 357 :名無しさん@お腹いっぱい。:2009/01/15(木) 04:50:49 ID:14aIogQH0.net
- どなたか巡集でshinobi.jpの広告削除設定を
ご存知の方どうかご指南下さい
色々設定してみたけど全然上手くいきません…
- 358 :名無しさん@お腹いっぱい。:2009/01/15(木) 22:38:28 ID:SkpOdVD30.net
- >>356 様
ご回答ありがとうございます。
スタイルシートについて、いろいろと調べたのですが、
リンク元のウィンドウで
<a href="#null" onClick="newWindow('/showshot.php?/neverwinternights/spells/images/balagarnsironhorn.jpg'・・・・)">.......
で新しいウインドウに画像のURLを渡し、
新しいウィンドウで
theShot = location.search.substring(1, location.search.length);
document.write('<img src=' + theShot + '>')
のように画像のURLを変数(上記の場合、theShot)に代入しているため、
URLがHTMLのソースに直接現れないような構造になっています。
このような場合はフィルタではどうしようもないと思うのですが、
何か良い手段はあるのでしょうか?
- 359 :名無しさん@お腹いっぱい。:2009/01/22(木) 10:04:12 ID:72T0n0l+0.net
- ↑
あっ ↑ は、>>354からの書き込みです。
- 360 :名無しさん@お腹いっぱい。:2009/01/22(木) 10:13:00 ID:LOPrZeW60.net
- まあこれで正確にHTMLが解析できれば誰も苦労しない罠
当然俺は分かりません
- 361 :名無しさん@お腹いっぱい。:2009/02/08(日) 16:33:12 ID:1ew7wZVH0.net
- あああ
- 362 :名無しさん@お腹いっぱい。:2009/02/17(火) 21:27:34 ID:swvN60Nx0.net
- サーバー上には置いてあるけどHP内のどこのページからもリンクされてないファイルも全部ダウンロードってできますか?
- 363 :名無しさん@お腹いっぱい。:2009/03/03(火) 08:01:05 ID:hIoIaLsc0.net
- 無理
- 364 :名無しさん@お腹いっぱい。:2009/03/04(水) 02:02:52 ID:iOzdqfhq0.net
- 巡集でwikiを丸ごと取れますか?なんだか非常に他のサイトと比べて時間がかかるので止めたのですが、wikiは取り込まない方が良いのですかね?
- 365 :名無しさん@お腹いっぱい。:2009/03/04(水) 12:44:56 ID:kOsE1mcy0.net
- >>364
この世の全ての知識を手に入れようとゆうのかw
時間がかかって当然だろ、しかも正しい保障のない知識を
- 366 :名無しさん@お腹いっぱい。:2009/03/04(水) 20:52:19 ID:iOzdqfhq0.net
- ああwikiっていってもWikipedia全てって訳じゃなくて○○ゲーム攻略とか○○の使い方みたいな1つのwikiの事だぜ
- 367 :名無しさん@お腹いっぱい。:2009/03/04(水) 22:03:51 ID:SjWqihRZ0.net
- wikipediaはDLツール使うまでもなく、ローカル用のアーカイブが用意されているからね
ただ、dbソフトとか色々設定しなきゃならないから面倒そうだし、多重DLとかやって負荷掛けたらアク禁だったっけ?
- 368 :名無しさん@お腹いっぱい。:2009/03/05(木) 08:05:04 ID:5euH1yl80.net
- 例えばこういうサイトとかなんだけども
ttp://foobar2000.xrea.jp/index.php?FrontPage
- 369 :名無しさん@お腹いっぱい。:2009/03/05(木) 15:20:36 ID:y2etLDHA0.net
- 管理側ですぐばれてアク禁
- 370 :名無しさん@お腹いっぱい。:2009/03/05(木) 19:05:28 ID:5euH1yl80.net
- >>369
そうなのか、諦めるわ
- 371 :名無しさん@お腹いっぱい。:2009/03/05(木) 22:13:12 ID:QC0/AZnI0.net
- この程度でなるわけねー
- 372 :名無しさん@お腹いっぱい。:2009/03/05(木) 22:51:07 ID:5euH1yl80.net
- >>371
そうなのかい?で巡集でやってみたら上手く取り込めなかったんだが、上手く取り込める方法を教えて貰えますか?
- 373 :名無しさん@お腹いっぱい。:2009/03/06(金) 00:54:24 ID:xnM4IX3Z0.net
- firefoxのscrapbookでのんびりと保存するのがベターかな
- 374 :名無しさん@お腹いっぱい。:2009/03/06(金) 14:01:59 ID:i20Uaw0U0.net
- >>295
半年以上前の投稿だが、俺も同じ現象になった。
んで解決方法がわかった。DEP のセーフリストに
GetHTMLW.exe を登録すれば、おk。
- 375 :名無しさん@お腹いっぱい。:2009/03/06(金) 15:00:53 ID:PmwxrF/V0.net
- >>373
回答ありがとう、やっぱ巡集と比べて面倒だけどそうするぜ巡集でも取れたら楽なのになぁ
- 376 :名無しさん@お腹いっぱい。:2009/03/07(土) 15:46:28 ID:EX6aOmt+0.net
- >>369-371
検索エンジンのクロール程度でアク禁するようなのは、いつの時代の管理人だよw
- 377 :名無しさん@お腹いっぱい。:2009/03/20(金) 22:02:39 ID:JSyDiuTFP.net
- hosyu
- 378 :名無しさん@お腹いっぱい。:2009/03/29(日) 05:41:06 ID:t09wwLl20.net
- 懐かしい話だ
- 379 :名無しさん@お腹いっぱい。:2009/04/01(水) 18:48:18 ID:sW1brWClO.net
- CSS内の画像リンクも辿って保存してくれるソフトありますか?
GetHTMLWでは落としてくれませんでした。
JSやSWFも丸っと落としてくれるソフトあれば教えて下さい。
- 380 :379:2009/04/02(木) 11:54:11 ID:CFvsFsE+O.net
- すみません。解決しました。
- 381 :名無しさん@お腹いっぱい。:2009/04/03(金) 06:23:23 ID:oDGPoJNA0.net
- 俺と今後の為にどのソフトで解決したのかkwsk
- 382 :名無しさん@お腹いっぱい。:2009/04/04(土) 14:46:47 ID:izV7zIzI0.net
- オラも知りたい
- 383 :名無しさん@お腹いっぱい。:2009/04/04(土) 19:11:59 ID:g6yEv4mBO.net
- ソフトを起動さえしとけば指定した時間に自動的に巡回して更新された部分を保存してくれるような
ソフトはないのでしょうか? 巡集を使っているのですが、そういった機能はないような
- 384 :名無しさん@お腹いっぱい。:2009/04/05(日) 04:43:52 ID:F1AvQ3H50.net
- scrapbookはどうもMIMEタイプを誤認して、ダウンロード中にダイアログボックスを出すことがあります。
たとえば、mplという文字列がアドレスに含まれているページが、mplファイルという拡張子に誤認されてしまいます。
私は、MIMEエディットというソフトでしのぎましたが、本体の判別機能があまりうまく行っていないようなので、
ページによっては誤動作するという問題点があります。
scrapbookの問題ではないと思うので、ある意味致し方ないことだとは思いますが。
- 385 :名無しさん@お腹いっぱい。:2009/04/05(日) 13:25:58 ID:5dZaffZs0.net
- すみませんが、質問です。
リンクをたどるだけでなく、ディレクトリの内容そのものを取得するダウンロー
ドツールはありませんか?
具体例を出しますと、
http://www6.airnet.ne.jp/manyo/xml/
このページから、以下のページにリンクが張られています。
http://www6.airnet.ne.jp/manyo/xml/xslt/home.html
この場合に、home.htmlを取得するだけでなく、その存在するディレクトリ
http://www6.airnet.ne.jp/manyo/xml/xslt/
も見に行き、(そこにindex.htmlなどが置かれていなくて)ディレクトリのファ
イル一覧が取得できたら、そのディレクトリのファイルを全部ダウンロードの
対象とする、という機能を持つツールを探しているのです。
このサイトでは、XMLファイルからXSLTファイルへのリンクがたくさん存在して
いて、通常のダウンロードツールだとXSLTファイルを取得することができませ
ん。しかしほとんどのディレクトリでファイル一覧を取得できるので、そこを
ダウンロード先に指定すれば、すべてのファイルをダウンロードできます。
今回は、巡集で www6.airnet.ne.jp/manyo/xml/ をまずダウンロード先に指定
し、ローカルに保存されたデータから、上記のxsltなどのサブディレクトリ名
を取得し(29個ありました)、それを全部、巡集に指定し、もう一度ダウンロー
ド行ないました。
しかしこれはかなり面倒なので、このような作業をすべてのサブディレクトリ
について自動的に行なってくれるツールがないかと思ったのです。
この機能は、外部JavaScriptやCSSから読み込まれるファイルの取得についても、
ある程度解決すると思うのですが、そういうツールはないでしょうか?
- 386 :名無しさん@お腹いっぱい。:2009/04/05(日) 14:25:28 ID:At+ZdFLO0.net
- wiki取り込む方法見つかった?
- 387 :名無しさん@お腹いっぱい。:2009/04/10(金) 22:39:16 ID:vy87VD8G0.net
- CGIページをきちんと保存、再生できるソフトないの?
巡集だと再生するときカオスになる・・・
- 388 :名無しさん@お腹いっぱい。:2009/04/11(土) 15:12:26 ID:FJDV+iB10.net
- http://pc12.2ch.net/test/read.cgi/software/1239155686/l50
【RunAsData】シェアウェアの試用期限クラック【HookDate】
アプリケーション開発における時間のからむ処理にて簡単にテストできて便利かもw
まあ、簡単に思いつくのは、わるいことばっかりだねw
だめだよ、そういうことに利用しちゃ。うふふ
もうひとつ、似たようなツールがあったのでこっちも紹介。
http://blog.livedoor.jp/iceboy_kaz/archives/50403664.html
日時を誤解させた状態で起動させるツール「RunAsData」と「HookDate」
http://dsas.blog.klab.org/archives/51078742.html
Windows用フリーウェア「HookDate」を公開します
http://softplaza.biglobe.ne.jp/news_recom/experience-n.html
ソフトのジャンルから探そう!体験版ソフトコーナー
http://soft.sigi-jp.net/
体験版ソフト百貨
http://www.princess2.com/taiken.htm
無料で使える体験版ソフト一覧
#ただし中には「Adobe Acrobat」(PDF作成用)のように、やっても効果が無いソフトもある。
- 389 :名無しさん@お腹いっぱい。:2009/05/17(日) 13:23:31 ID:/NzZAjoN0.net
-
- 390 :名無しさん@お腹いっぱい。:2009/05/25(月) 14:50:50 ID:03qdJTKV0.net
- 話題もないねえ…
- 391 :名無しさん@お腹いっぱい。:2009/05/25(月) 16:29:47 ID:Y24nZ+jT0.net
- じゃあ、サイト丸ごと取り込みソフトが禁止されているサーバで、どうやってチェックをくぐり抜けてソフトで丸ごとDLするかとか考えるか。
UA規制程度なら各自で対処できるだろうし、ソレより上等な規制対象で。
- 392 :名無しさん@お腹いっぱい。:2009/06/08(月) 10:51:52 ID:AufSz18I0.net
- t t p : / / g . e - h e n t a i . o r g /
ここ取り込める?
画像だけでもいいんだけど
向こうに知られるとまずいから
アドレスは切った
- 393 :名無しさん@お腹いっぱい。:2009/06/08(月) 11:34:03 ID:8JvAcKuU0.net
- Refererくらい理解してから書き込めよ
- 394 :名無しさん@お腹いっぱい。:2009/06/08(月) 21:29:18 ID:AufSz18I0.net
- Refererは理解してる、が
取り込みソフト拒否されてるっぽいんだよねここ
- 395 :名無しさん@お腹いっぱい。:2009/06/10(水) 19:59:37 ID:/w+HilEi0.net
- PCにあまり詳しくないんですが簡単な動画ダウンロードソフトでおすすめありますか?
- 396 :名無しさん@お腹いっぱい。:2009/06/11(木) 09:32:33 ID:CI9JV7KS0.net
- とりあえずyahooの質問集でもクグッて質問しような?
ImageGeter使ってみな
サムネイル画像のリンク先に欲しい画像がある場合でも取ってくれる
使い方はyahoo見ろよ
- 397 :名無しさん@お腹いっぱい。:2009/06/11(木) 10:13:00 ID:CI9JV7KS0.net
- ああ、それと。
場所によっては対ダウンロードソフトを敷いてるところもあるから、
リンク追跡は1個にしときなよ。
下手するとBANされて8時間待機とかなけるから。
設定は登録したリンクから変えられる。
- 398 :名無しさん@お腹いっぱい。:2009/06/13(土) 01:37:45 ID:HDt2gcxv0.net
- wikiまるごと保存できるソフトなイノ?
- 399 :名無しさん@お腹いっぱい。:2009/06/14(日) 01:10:44 ID:7qssCspA0.net
- >>394
このスレからhttp://g.e-hentai.org/
へのrefererの話をしていると思われ
- 400 :名無しさん@お腹いっぱい。:2009/06/23(火) 17:45:38 ID:rUYeky/o0.net
- >>398
フリーじゃないけど
A1 Website Download
javascriptリンクも変換して保存可能らしい
ttp://www.microsystools.com/products/website-download/
- 401 :名無しさん@お腹いっぱい。:2009/06/27(土) 22:03:23 ID:i2oYT4kJ0.net
- 巡集って
例えば今日ダウンロードしたページを明日ダウンロードしたら上書きされてしまいますよね?
そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
- 402 :名無しさん@お腹いっぱい。:2009/06/27(土) 22:14:37 ID:DjFTSHEj0.net
- 手作業でリネーム
取り込む先のフォルダの名前を指定する
好きなのを選べ
- 403 :名無しさん@お腹いっぱい。:2009/07/18(土) 09:37:45 ID:fBBs6NrU0.net
- 波乗野朗使ってるんですが、スタイルシートに対応していないのか、最近のWEBサイトを取り込むとガタガタに崩れてしまいます。
フリーできちんと崩れず閲覧できる巡回ソフトがあれば教えてください。
- 404 :名無しさん@お腹いっぱい。:2009/08/01(土) 12:57:23 ID:yPfvTWSQ0.net
-
Bulk Image Downloader
これまでFree版を使用していたんだけど、有料onlyになったのかな?
CODEを入力しないと、起動しなくなった。FireFOXのアドオンもダメ。。。
便利だったのに、な。
http://antibody-software.com/web/index.php?option=com_content&task=view&id=33&Itemid=30
- 405 :名無しさん@お腹いっぱい。:2009/08/07(金) 11:31:36 ID:O6rKHi3B0.net
- ブログの画像だけを取り込むソフトないですか?
web image hunterを使ってみましたが広告の画像まで取り込んで管理がししにくいのと
どっからきたかわからない変な画像まで取り込んでしまってうまくいきません
よろしくお願いします
- 406 :名無しさん@お腹いっぱい。:2009/08/14(金) 01:11:21 ID:g2iL4TTl0.net
- VIPダウンろーだ
ttp://vdlspt.bob.buttobi.net/vipdownloda/
2chとGazouBBSの一部専用 Javaアプレット製
- 407 :名無しさん@お腹いっぱい。:2009/08/16(日) 15:42:19 ID:F1VFlTYE0.net
- >405
画像フィルタ使えばいいじゃん。
ブログの画像のURL見て、"http://xxx.com/images/xxx.jpg"とかだったら、
URL(含まれる)ってとこに"http://xxx.com/images"を追加する。
- 408 :名無しさん@お腹いっぱい。:2009/08/16(日) 15:49:36 ID:F1VFlTYE0.net
- >>405
追記。あと、広告なら大抵gifだからgifは外すとか、
わけわからん小さいサイズの画像取らないためにサイズを特定のサイズ以上にするとか。
web image hunterは検出力高いから、フィルタは必須。
- 409 :名無しさん@お腹いっぱい。:2009/08/17(月) 23:27:34 ID:zCh7YkeM0.net
- javascript追跡に対応してるソフトってありますか?
- 410 :名無しさん@お腹いっぱい。:2009/08/18(火) 19:59:35 ID:QE4ZdWoG0.net
- imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
gethtmlwのproxymode2を使っていると、ページごとに異なるファイルとして保存されていたと思うのですが、
ver8.0.0ではできなくなっています。
prohibit.lwsに*psvで指定してもできないのですが、どうすればできるようになるのでしょうか?
- 411 :名無しさん@お腹いっぱい。:2009/08/19(水) 15:14:37 ID:qmXb8rBu0.net
- > imgboard.cgiのページをブラウザで閲覧してるとき、アドレスバーの表記は変化しません。
ページをPOSTメソッドで取得しているんだな。
設定の「POSTmethodも保存する」をチェック。
これで無理なら諦める。
- 412 :名無しさん@お腹いっぱい。:2009/08/20(木) 14:50:28 ID:gE/IvJew0.net
- imagefap一括DLしたくして↓のページでやったんだけど
ttp://pictadicts.blog38.fc2.com/blog-entry-2242.html
ちゃんと展開してDLしてくれません。
他にお勧めの方法か解決策ってないでしょうか。
- 413 :410:2009/08/21(金) 02:07:18 ID:kCD6o2M50.net
- >>411
>設定の「POSTmethodも保存する」をチェック。
この設定で希望どおりの動作になりました。ありがとうございます
prohibit.lwsに*psvで指定してあって、ページが実際に違うのに保存してくれないってことは、
「拡張子がcgiの単なるHTML」という扱いではないようですね
- 414 :名無しさん@お腹いっぱい。:2009/09/13(日) 22:20:00 ID:4oE3F4nr0.net
- まとめサイト(blog)の広告部分を取り除いて保存してくれるソフトないもんかな
紙copiで保存して余計な部分を(ry
→サイズの大きなページで紙copiがザ・ワールド
BullzipやPrimoでPDFにして余計な部(ry
→サイズの大きな(ryで一般保護法ナントカ
mhtで保存しておいて余計な部分を手動で削除する方法
→mht編集ソフトが上手く読み込んでくれないサイトがある&サイズの大きな(ry
Wordにコピー&ペーストして(ry
→レイアウトが原形を留めてくれない
Proxomitronで広告をフィルタリング
→フィルタ設定した次の日に大量の広告アドレスが入れ替わってて萎えた
とりあえず普通に取り込みソフトで保存してそのまま表示してみるテスト
→オンライン状態になるとiframeの広告ページに保存フォルダをrefererにしてうわなにをするやめr
- 415 :名無しさん@お腹いっぱい。:2009/09/14(月) 12:23:55 ID:PB1HOZh+0.net
- >>414
広告アドレスはアカウントID指定しないで、ワイルドカード指定してる?
広告消しだったら、置換ソフト(複数ファイル一括処理タイプでワイルドカード使用)で取り除くとか、
ダウンローダでCompleteGetterっていうのにDL後ファイルバナー広告削除機能ついてる。
- 416 :名無しさん@お腹いっぱい。:2009/09/24(木) 20:00:50 ID:V1YBGQBI0.net
- 巡集使ってみたいのですがページが消えていてどこ探してもみつかりません。
どなたかDLできるサイト教えてください。もしくはUPお願いできませんか?
- 417 :名無しさん@お腹いっぱい。:2009/09/24(木) 22:31:22 ID:n+r1nZD00.net
- 巡集消えてるね。
いいソフトだったのに残念だ。
- 418 :名無しさん@お腹いっぱい。:2009/09/25(金) 22:12:28 ID:kaj3Edae0.net
- 消えてねえよ、ここで更新チェックしとけ
ソフトアンテナ > Windows > WWW > ダウンロード > 巡集
http://www.softantenna.com/lib/2305/index.html
- 419 :名無しさん@お腹いっぱい。:2009/09/25(金) 23:35:57 ID:htTJHAHB0.net
- DL数が強制的に1になる前のGetHTMLW(ver 7.11.6かな?)を、ProxomitronでUAを Pockey-GetHTMLから変更してrobot.txtを無視して使うのが一番快適だな。
それでも弾かれるならIrvine系でリンク解析して纏めてDLすればおっけーね。
ところで、今ベクターで公開しているGetHTMLWのDL数を好きなように変えられるバイナリ改変の手法ってあるのかしら。
- 420 :名無しさん@お腹いっぱい。:2009/09/26(土) 00:20:49 ID:vz+4woN2P.net
- 巡集更新されてるな
ver 1.7.2 (2009/08/30)
* 通信エラーで途中で止まるバグを修正。
* 追加ダウンロードで除外されたファイルもダウンロード可能に。
* 許可URLと除外URLの細かい動作不良を修正。
しかし、作者が株で大損した的なこと書いて
すぐサイト閉鎖したんだっけか
なんかあったのかと当時心配になってたな
- 421 :名無しさん@お腹いっぱい。:2009/09/26(土) 10:23:56 ID:oaSHciNs0.net
- >>418
そのリンク先のベクターが一時的に消えてたんだよ。
- 422 :名無しさん@お腹いっぱい。:2009/09/27(日) 13:50:11 ID:ms06DL850.net
- ついに巡集のURLフィルタの除外指定が想定どおりになったぞ
以前は許可でパスしてると除外をスルーされていたからな
おかげでため込んだ設定ファイルを一部書き直すことになったが
- 423 :名無しさん@お腹いっぱい。:2009/09/29(火) 22:52:47 ID:jvpQY2ni0.net
- 巡集素晴らしいソフトだけど、
辿らなかったURLが多いと古いほうからどんどん消えちゃうのがちょっと残念
それからダウンロードURLやURLフィルタに登録できる文字数がもっと増えたり
ダイアログの大きさを拡縮できると俺だけ幸せ
- 424 :名無しさん@お腹いっぱい。:2009/09/30(水) 10:39:36 ID:VYCIQ4+X0.net
- >>423
みんなで幸せになろうよw
- 425 :名無しさん@お腹いっぱい。:2009/10/20(火) 23:48:32 ID:38/cKrSL0.net
- >>401
>巡集って例えば今日ダウンロードしたページを
>明日ダウンロードしたら上書きされてしまいますよね?
>そうしないように(日付ごとにページを分けるように)する方法って無いでしょうか?
俺も似たような悩みなんだが、これを、自動的にやってくれる機能を持ったソフトは無いか。
更に、予め指定したページを、週2日位で自動巡回・自動取得してくれると良い。
日付ごとにページを自動的に分けてくれるという意味では、
Beeが希望に近いのだが(>>401氏はお試しあれ)、
俺の場合、狙っているページが、ユーザー名とパスワードを入力しないといかんページなのだ。
Beeだと、なんだか、設定が上手くいかん。
一方、波乗野郎だと、ユーザー名とパスワードなどの設定とか、
定期的な自動取得とかは出来ても、
いちいちフォルダに手を加えるとかしないと、上書きされてしまう様なのだ。
良いソフトは無いかしら。
- 426 :名無しさん@お腹いっぱい。:2009/10/20(火) 23:53:17 ID:38/cKrSL0.net
- >>425に追記
「URLは一定だけど中身が変わるファイルの、自動的な定期保存」が希望といっても良い。
- 427 :名無しさん@お腹いっぱい。:2009/11/17(火) 01:19:05 ID:yVWqHF3k0.net
- 401、426に同じく。
425がお勧めしてくれているBeeはシェアなのでまだ試していないけど、フリーならScriptBrowserKはどうだろうか。
需要が少ないのか情報が古いものしか見つからず、ようやく辿り着いたのだが…。今簡単な設定だけして使ってみているが、なんか広告まで更新拾ってちょっと鬱陶しいがスクリプトなどでなんとかなるようなならないような…。
がんばって弄れば更新時にメールもできみたいだ…。私にはまだできぬが…。
- 428 :名無しさん@お腹いっぱい。:2009/12/06(日) 23:39:56 ID:Xd69xJs/0.net
- Offline Explorer Ver4の日本語化をやり始めたんだけど
気が向いたらランゲージファイル公開するわ
- 429 :名無しさん@お腹いっぱい。:2009/12/07(月) 08:38:55 ID:DFn9YnAw0.net
- もうVer.5になってなかったっけ?
- 430 :428:2009/12/08(火) 23:22:21 ID:D9b5l12j0.net
- Ver5が出てるのは知ってるんだけど自分が使ってるのが4だったからってだけ
半分近くローカライズしちゃったもんだからVer5への対応はやるかどうか不明
- 431 :名無しさん@お腹いっぱい。:2010/01/06(水) 13:07:10 ID:kDFT625l0.net
- >>425
俺もそれ探したけど、見つからんかった。
Beeってこれ?
http://crocro.com/pc/soft/bee/intro/intro_soft.html
- 432 :名無しさん@お腹いっぱい。:2010/01/06(水) 17:25:24 ID:z5X944lK0.net
- それを落とそうとしたら、avast がトロイ発見したのだけど・・・
感染先は Bee.exe で実行ファイル
- 433 :名無しさん@お腹いっぱい。:2010/01/06(水) 20:00:01 ID:kDFT625l0.net
- >>432
誤検知だから大丈夫
うちはAviraだけど、beeServer_start.exe ってのも誤検知した。
- 434 :名無しさん@お腹いっぱい。:2010/01/06(水) 20:12:18 ID:RzwWHhyF0.net
- 巡集のソート機能にはバグがあるのかな?
ver1.58あたりまでだと全ての行がソートされるけど
1.59以降は行が多いと途中までの行しか並び替えてくれない
- 435 :名無しさん@お腹いっぱい。:2010/01/06(水) 22:43:12 ID:z5X944lK0.net
- 誤検知なのか。 トンクス
でも、特定ディレクトリに入れて、そのディレクトリだけスルーさせる設定にした。
あとで使ってみよう。
- 436 : ◆fdAnbU5Z6U :2010/01/07(木) 19:43:31 ID:WixZAyedP.net
- 正露丸の方がいい!正露丸は必需品これ絶対ね!基地外漏りたぽ全部寄越せや
- 437 :名無しさん@お腹いっぱい。:2010/01/12(火) 00:02:23 ID:mBZ3Hlbu0.net
- やっぱり再三出てる話題だったか
ゲーム攻略系のwikiを丸ごとローカル保存ってのは無理っぽいね
頻繁に参照するんでどうにかしたいんだけど…
- 438 :名無しさん@お腹いっぱい。:2010/01/14(木) 17:34:33 ID:BnCvLsD90.net
- ふつうにwiki保存できてるけど・・・
- 439 :名無しさん@お腹いっぱい。:2010/01/14(木) 19:38:01 ID:yv0Hxe320.net
- wikiでもそれぞれページが01.htmlみたいになってるタイプは保存できて当然
index.php?%xx%xx%xxみたいなタイプはソフトによって解釈が違うから問題が出る
ちなみに俺が使ってるソフトはローカルに保存することは問題なく出来る
でも保存したデータを取り込みソフトから開く時にエラー出してくれる
ファイルを直接開いてもいいけど拡張子がないからダブルクリックなどが使えなくて不便
- 440 :名無しさん@お腹いっぱい。:2010/01/15(金) 03:59:54 ID:59bOFj/P0.net
- ScrapBookつかえ
- 441 :名無しさん@お腹いっぱい。:2010/01/17(日) 16:30:03 ID:MxrdNVKG0.net
- webexでもweboxでも駄目だったサイトがgethtmlwで全部ダウンロードできた。
でもIEで見るとページによっては表示がただの文字列になっちゃうんだけど、どうすればいいの?
- 442 :名無しさん@お腹いっぱい。:2010/01/28(木) 14:33:42 ID:hxTP88ae0.net
- ソース見てCSSとか足らないファイル無いか確かめて見れ
- 443 :名無しさん@お腹いっぱい。:2010/01/28(木) 15:06:42 ID:+eB2y8gU0.net
- WebAuto は秀逸なんだけど、シェアウェアなうえに開発終了っぽいのが残念。
今までオートパイロットで WebAuto 以上のものにあったことが無い
- 444 :名無しさん@お腹いっぱい。:2010/01/29(金) 01:51:12 ID:pdIiOyGT0.net
- 忍者ブログがちゃんと取り込めるお勧めってある?
表に見える画像が「HyperText 転送プロトコル (HTTP)」ってなっててよくわからんが
取り込んだHTML起動させても画像出ないんだ。
とりあえず、巡集とWeBoXは使ったけどだめだったorz
- 445 :名無しさん@お腹いっぱい。:2010/01/31(日) 12:58:52 ID:LRfrwAhF0.net
- 他の所で聞いてみましたが、反応がなかったので。
javascriptも崩れないで綺麗に取り込めるページ取り込みソフトはありませんか?
webox/紙copiでは、いまいち上手に取り込めませんでした。
何かご存知でしたら、教えてください。
- 446 :名無しさん@お腹いっぱい。:2010/02/13(土) 23:30:04 ID:i791U1t40.net
- gethtmlwでのことなのですけれども
以前まで順調に落とせてたサイトを
今やってみようとするとrobots.txtだけしか落ちこなくなってしまいました
ProxomitronでUser-Agentをいじってみたんですけどrobots.txtだけしか落ちてきませんでした
どうやったら良いんでしょうか?
対象サイトはup.pandoravote.netっていうアップロダサイトです
- 447 :名無しさん@お腹いっぱい。:2010/02/14(日) 16:30:15 ID:ekI+lMw50.net
- なんかいろいろ調べてたんですが
robots.txtに User-agent: * Disallow: / って書いてあるので
これを読んだgethtmlwが拒否されてると認識してしまう
のでrobots.txtだけ落ちてきて取得終了となる
でもって手持ちのgethtmlwのver7.10.1で試したところ巡回取得ができた
robots.txtに従って巡回するしないとゆう機能は
gethtmlw.verを読むと7.11.0からのようだ
で いいのかなぁ。。。
- 448 :名無しさん@お腹いっぱい。:2010/02/16(火) 19:55:21 ID:S5I004NN0.net
- Proxomitron を使っているのなら、User-Agent を書き換えるよりも
いっそ robots.txt へのアクセスを遮断する方が根本的解決に繋がるだろうね。
どっちみち User-Agent の書き換えは推奨するけど。
デフォルトの User-Agent "Pockey-GetHTML" でググると分かるけど、
以前実装のマズさからいろんなサイトから総スカンを食った過去があるので。
- 449 :名無しさん@お腹いっぱい。:2010/02/16(火) 23:36:40 ID:eb20GwbO0.net
- robots.txtについては「0:robots.txt」を設定することで読まない設定が可能だから楽ちんだね
- 450 :名無しさん@お腹いっぱい。:2010/02/17(水) 19:44:59 ID:C0QOwpgt0.net
- 盲点突かれてもう目が点
ありがちょ
- 451 :名無しさん@お腹いっぱい。:2010/02/18(木) 10:36:09 ID:cDYue5wv0.net
- >>450
もともと盲点は見えないから突かれても問題ない
- 452 :名無しさん@お腹いっぱい。:2010/04/04(日) 05:53:01 ID:OKHjYikf0.net
-
- 453 :名無しさん@お腹いっぱい。:2010/04/16(金) 01:50:11 ID:LJzX0FMt0.net
- twitterのプロフ検索サイトや
WinnyやShareのハッシュサイトの
情報を丸ごとってのもできるの?
- 454 :名無しさん@お腹いっぱい。:2010/05/27(木) 11:26:34 ID:ieOwLYqC0.net
- あげ
- 455 :名無しさん@お腹いっぱい。:2010/05/27(木) 11:48:03 ID:dz2Xu6+80.net
- wgetでサイトまるごと採ろうとしてるけど
画像データの途中でwgetが止まるというか
HTTPのレスポンスがない・・・
どうすれば・・・
- 456 :名無しさん@お腹いっぱい。:2010/07/17(土) 18:45:54 ID:geoOLYIs0.net
- scrapbook+の最新版でwikipediaを階層保存しようとするとたまにエラーが出て保存できないのですが設定で回避できますか?
- 457 :名無しさん@お腹いっぱい。:2010/10/02(土) 03:16:36 ID:tOtD8Seh0.net
- wgetのGUI版があったので貼っとく
VisualWget - A download manager (GUI) based on Wget for Windows
http://khomsanph.net/visualwget/
- 458 :名無しさん@お腹いっぱい。:2010/10/07(木) 20:51:42 ID:8vo6Uaef0.net
- moe.imouto.org終了のお知らせか・・・
- 459 :名無しさん@お腹いっぱい。:2010/10/15(金) 01:29:54 ID:TBUV4Okd0.net
- >>443の書き込み見てWebAutoを使ってみたけど
サーバーにアップされた時間で落とせるぽいな
他のツールでも可能ぽい説明があるソフトは何故か
設定してもうちの環境じゃダウンロードした時間になるから助かった
- 460 :名無しさん@お腹いっぱい。:2010/10/23(土) 09:06:37 ID:lnHUl5BB0.net
- 巡集の1.7.1A→1.7.2のバージョンアップで、
URLフィルタの許可URLよりも除外URLの方が優先されるようになって、
ダウンロードできなくなったサイトがあるんだけど、
何かいい方法ってある?
- 461 :名無しさん@お腹いっぱい。:2010/10/25(月) 22:58:32 ID:72FsLqyA0.net
- 何度か話題に出ているけどやっぱりwikiをそっくりダウンロードするのは難しいんだね
- 462 :名無しさん@お腹いっぱい。:2010/10/26(火) 23:59:32 ID:9JgHvqPN0.net
- ローカルに保存したwikiを
txtで開いてしこしこしながら勉強しろよっていう
ググルさんの優しさ
- 463 :名無しさん@お腹いっぱい。:2010/11/05(金) 00:04:14 ID:9BGnuHFv0.net
- 更新頻度と64bit対応を考えると、WinHTTrackしか選択肢がないよう
Firefoxのアドオンのほうが幸せになれるのかもしれんな
GetHTMLwの作者はどうなったのですが
最近、更新がないようですが
あげ
- 464 :名無しさん@お腹いっぱい。:2010/11/08(月) 15:27:20 ID:qDJ9LufK0.net
- 今まで、pagedown使ってたけど、巡集に乗り換えたけどいいね。
pagedownで完全に取り込めなかった、ページも取り込めたし。
ブログなんか保存する場合だと、いらないものは拒否するフィルターより
いる物を追加してくフィルターの方がはるかに便利だね。
他にこうゆうフィルター使えるソフトってないからもっと増えてほしい。
- 465 :名無しさん@お腹いっぱい。:2010/11/08(月) 22:17:48 ID:y6Jx/ALlP.net
- 最近「〜けど〜けど」「〜ので〜ので」「〜だから〜だから」みたくたった1文の構成すら出来ない奴が増えたな
- 466 :名無しさん@お腹いっぱい。:2010/11/09(火) 11:16:37 ID:frlQOzh00.net
- 最近句読点すら使えない奴増えたよな
- 467 :名無しさん@お腹いっぱい。:2010/11/09(火) 23:59:38 ID:sTHTzJsZ0.net
- i.aspの付いているaspで生成されている(?)携帯サイト
(具体的にいうと魔法のiらんどですが)を丸ごと保存できるソフトは
ありますか?
既存のソフトを試してみたのですが、a対応しているものはなかなか
ないみたいで・・・。
- 468 :名無しさん@お腹いっぱい。:2010/11/10(水) 14:11:03 ID:lmrHRm4k0.net
- 魔法のiらんどなら巡集でフィルタ設定して取ってる
目的サイトのコンテンツによってはフィルタ設定多少変わってくるけど
- 469 :467:2010/11/12(金) 12:06:32 ID:UOQQ0O0Q0.net
- 情報をありがとうございます。
巡集を使わせていただきました。
ダウンロードそのものはできていて、保存されたファイルをテキストファイル
などで開くと中身はhtmlのソースがちゃんと書かれていることはわかるの
ですが、拡張子がhtmlでないためなのかブラウザで正しく表示されません。
自分で一括リネームすればよいのかもしれませんが、そうすると今度はリンクの
相互関係も全部書き換えないとならなくなります。巡集でaspのファイルを
ダウンロードする際にもう少しよいやり方は可能でしょうか?
あと、取得する階層を0とか1とか2に設定しても、なぜか次から次へと
ダウンロードするファイルが増えてきて、いつまでたっても終わらなくなります。
教えて君ですみませんが、どうしてこうなるのか誰がご存知な方がいれば
教えていただけないでしょうか?
- 470 :名無しさん@お腹いっぱい。:2010/11/13(土) 10:33:10 ID:tSkOmlSC0.net
- 自分の場合Firefox、Opera辺りならD&Dすれば
普通にhtmlの状態で見られるんでトップページをブックマークしてる
それ以外やったことないしあまり詳しくもないからちょっとわからない
ダウンロードファイルがどんどん増えてくのはフィルタ設定がちゃんとできてないからだと思う
ゲストブック、iらんど大賞みたいな他のiらんどサイトへのリンクがある箇所は
除外していかないといつまで経っても終わらない
- 471 :名無しさん@お腹いっぱい。:2010/11/14(日) 09:57:13 ID:89KNH7or0.net
- ローカルの特定の拡張子の扱いはブラウザ依存じゃないのかな
- 472 :467:2010/11/20(土) 15:24:55 ID:O0cud1UJ0.net
- 返答が遅くなってしまい申し訳ありません。
余計なファイルがダウンロードされてしまって終わらないという問題は、
フィルタの設定をきっちりと行うと解決されました。
aspファイルの表示についてですが、いろいろ試してみたもののどうも
うまくいかないので、ファイルを一括でリネームして、中身のリンクを
書いてある部分についても一括で置換、という方向でやってみようと
思います。ありがとうございました。
- 473 :名無しさん@お腹いっぱい。:2010/11/20(土) 20:10:20 ID:213w5ulb0.net
- 頻繁にファイルを直接選択してブラウザで見たいというのでなければ
スタートページだけhtmlに拡張子を変えたコピーを作ればいい
- 474 :467:2010/11/20(土) 21:34:10 ID:O0cud1UJ0.net
- >>473
その方法だと、スタートページは正しく表示されるのですが、
そこからリンクしているそれぞれのページを見に行くときに、
結局同じ問題が生じて正しく表示されなくなってしまうみたいです。
- 475 :名無しさん@お腹いっぱい。:2010/11/21(日) 14:57:29 ID:vODtUEkF0.net
- それって、content-typeやらがwebサーバー経由で見た場合はhtmlで返ってくるけど
ローカルで開くと拡張子の都合でhtmlとして見られないという話だよね
ローカルにwebサーバー立てて.aspをhtmlとして返す設定ファイル置いて見るとか、
ブラウザ側でhtmlとして扱うような設定するとか
Firefoxなら気にしないでよかった気もする
- 476 :467:2010/11/21(日) 21:09:43 ID:IaD1YDka0.net
- >>475
Firefoxを使ってみたのですが、確かにこれだとaspでも正しく表示する
ことができますね。
Internet Explorerの設定によって表示する方法はいろいろ調べたのですが、
要するに具体的にどの設定をいじれば表示できるのかということを説明
してあるサイトなどがあまりなくてどうも要領がわからなかったです。
サーバーをたてる件については、IIS(?)というのをインストールすると
ローカルでも見れるようになる、ということなので途中まではやってみたの
ですが、思ったよりいろいろと設定が面倒なので、だったらファイル名と
中身を置換してしまえばよいのではないか、と思いました。
当面は、これを見る必要があるときだけFirefoxを使って(といっても
ダウンロードしたのはもしものときのバックアップ用で、サイトそのものは
存在するので当面はそれを普通に見ればよいのですが)、他の設定などで
Internet Explorerでも見れるようにする方法についてはもう一度少しずつ
試してみたいと思います。ありがとうございました。
- 477 :名無しさん@お腹いっぱい。:2010/12/25(土) 16:50:14 ID:iR3S9Wga0.net
- winhttrackを使ってるんだけど、途中でトラブルがあって止まってしまった
途中から再開するんだけど、レジュームモードだと
もう一度最初から取り込みなおすっていうか更新された情報の取り込みまで
やってしまうんだけど、これまでやった場所は更新させないで
取り込む方法ってある?
- 478 :名無しさん@お腹いっぱい。:2010/12/31(金) 02:53:13 ID:57SW0Dqp0.net
- >>476
俺はIE詳しくないから検索の手助けになりそうな情報だけ
ドキュメントをどう解釈させるかはMIMEという設定がある
ネット上のwebサーバーはブラウザではこう解釈してほしいんだ、というのを返してくれてる
aspなりphpなりcgiのようにURLが.htmlじゃなくても、htmlとして扱ってくださいねという情報ね
だからフォルダのオプションの関連付けか何かで、拡張子ごとのMIMEの設定を指定してやればいいと思う。
.aspファイルはhtmlとして開いてね、というような指定
「関連付け MIME」なんかでググったらでてこないかな
ローカルでwebサーバー立てれば見れると書いたのは、webサーバーがやっていることを手元でやるということね。
でも、よくわかっていない人間に気軽にそんなことをさせるべきではないか。
誤った設定でwebサーバーを立てれば、全世界に情報が公開されかねないからね。
- 479 :名無しさん@お腹いっぱい。:2010/12/31(金) 17:14:16 ID:X5j+/04f0.net
- PC
- 480 :名無しさん@お腹いっぱい。:2011/01/03(月) 12:57:19 ID:98ttV4VF0.net
- ComGetter
- 481 :名無しさん@お腹いっぱい。:2011/01/04(火) 00:18:27 ID:MGz4r0zS0.net
- CompleteGetterのRFunc:1とかRFunc:2って何ですか?
- 482 :名無しさん@お腹いっぱい。:2011/01/06(木) 20:13:45 ID:1jij3k+00.net
- フレーム付のページを一括で保存できるソフトってありますか?
- 483 :名無しさん@お腹いっぱい。:2011/01/08(土) 17:58:29 ID:0w5F53fBP.net
- >>482
>>1-481
- 484 :名無しさん@お腹いっぱい。:2011/01/25(火) 17:35:02 ID:4v6efgTR0.net
- ttp://liargame.jp/index.html
このサイトみたいに、読み込んでから表示するタイプはなかなか
サイト保存が出来なくて困ってるんだけどどうすれば良いかな?
- 485 :名無しさん@お腹いっぱい。:2011/01/26(水) 17:28:22 ID:9LvkE2vX0.net
- そういう場合はXaxonのネットレコーダーしかないな。
- 486 :名無しさん@お腹いっぱい。:2011/01/27(木) 02:50:00 ID:JYGImn8Z0.net
- >>484
ほぼ全面Flashやがな。
- 487 :名無しさん@お腹いっぱい。:2011/02/08(火) 21:09:45 ID:ihfk+Bz20.net
- http://www.nhk.or.jp/artbs/photo/009.html
上みたいに、画像をクリックすると浮かび上がって出るタイプを
そのままの状態で保存したいんだけど無理?
保存しても、こうならないで、ただの白い画面に写真って状態で表示される
- 488 :名無しさん@お腹いっぱい。:2011/02/08(火) 21:40:58 ID:kmLZd/z+0.net
- できるよ
よく使われてるjava scriptだろ
- 489 :名無しさん@お腹いっぱい。:2011/02/09(水) 00:09:09 ID:2QpVybi70.net
- フォーラム系を保存したいのですが
良いソフトありますか?
- 490 :名無しさん@お腹いっぱい。:2011/02/09(水) 00:45:25 ID:S3LS3a5p0.net
- >>488
winhttrackみたいなミラーソフトでは、無理だったのだけれど
どうすれば、保存できるようになるの?
- 491 :名無しさん@お腹いっぱい。:2011/02/12(土) 01:21:50 ID:dChV5rWn0.net
- 決定的なソフトは現れないかねえ
新しいソフトですら現れていないわけだが
- 492 :名無しさん@お腹いっぱい。:2011/02/13(日) 22:02:23 ID:6bZnuHuB0.net
- >>489
ない
- 493 :名無しさん@お腹いっぱい。:2011/02/13(日) 22:56:17 ID:sFgYj0cn0.net
- 龍馬伝の公式ホームページを保存しようとしてるんだけれど、TOPページから
してとりこめない。
どんなソフトを使えば取り込めますか?
- 494 :名無しさん@お腹いっぱい。:2011/02/19(土) 23:58:21.21 ID:4N0fBC/Y0.net
- 巡集でURLに「0902」を含むファイルだけなぜか拾ってくれないんですが、同じような症状の人いますか?
いろいろ設定を変えてみたけれど駄目でした。
- 495 :名無しさん@お腹いっぱい。:2011/02/21(月) 17:39:50.04 ID:mCsnFxG/0.net
- winhttrackというサイトミラーソフトを使用しています。
http://www.httrack.com/ これです。
こちらのソフトは短時間の使用では全く問題ないのですが、
ページ数のあるサイトでサイトミラーに長く時間が掛かってしまう
場合トラブルが発生します。
Winhttrackでサイトのミラー(コピー)に、1日以上時間を必要とするサイトの場合や、
そのようなサイトを複数(多重起動して、2つ以上)コピーしている際にトラブルが発生します。
まず、インターネットに接続できなくなり、次第にパソコンの動きが重くなっていきます。
また、上記のようなサイトの取り込みに時間の掛かるサイトのコピーを行っている最中にパソコンを長時間放置(長時間といっても3時間以上)すると、
トラブルが起きやすくなります。長く放置し続けると、最終的には3分以上操作を行わない場合、モニタの電源が切られる設定にしておりますが、
その状態からタッチパッドをクリック、叩いても反応しなくなります。
以上のような事が発生した場合、CHKDSKが必要な状態となります。このようなサイトのコピーを行っていても、始めてから10時間ほどでは問題ありませんが1日以上経過した場合、このような症状が現れます。
原因や、長時間サイトコピーを行ってもその状態とならぬような対策はありませんでしょうか?
- 496 :名無しさん@お腹いっぱい。:2011/02/23(水) 17:08:22.81 ID:1tqryiUd0.net
- >>495
ですが、パソコンを使用しているときには、そういった状態になりにくく
使用せず放置すると、CHKDSKが必要な状態になりやすくなります
なぜなんでしょうか?
- 497 :名無しさん@お腹いっぱい。:2011/02/26(土) 14:52:25.55 ID:eI0hwifQ0.net
- (´・ω・`)知らんがな
- 498 :名無しさん@お腹いっぱい。:2011/03/18(金) 09:56:13.02 ID:8uboNOZD0.net
- 巡集のように絶対パスを相対パスに(http://〜index.htmlをindex.htmlに)してくれる機能ってGetHTMLにもある?
それか、同等の機能を持ったソフトとか…。
携帯サイトを取り込みたいんだけど、いちいち手動でリンク書き換えるのが大変で。
巡集だと上手く取り込めなくて…たぶん自分のやり方が悪いんだと思うんだけど。
調べてもGetHTMLを詳しく解説してるサイトとか見つけれなくて、色々試行錯誤してるんだけど、まだ使いこなせてない…。
- 499 :名無しさん@お腹いっぱい。:2011/03/18(金) 10:00:43.45 ID:8uboNOZD0.net
- あ、Wが抜けてた。GetHTMLWです。
- 500 :名無しさん@お腹いっぱい。:2011/03/18(金) 16:41:32.10 ID:A+5wOcCe0.net
- (´・ω・`)知らんがな
- 501 :名無しさん@お腹いっぱい。:2011/03/18(金) 19:49:28.02 ID:8uboNOZD0.net
- (´・ω・`)そうだよね
- 502 :名無しさん@お腹いっぱい。:2011/03/25(金) 17:50:39.65 ID:gecN6pF70.net
- Httrackは時間が掛かりすぎるんだけど、速くする方法ないですか?
NHKの番組表、保存してるんですが。丸2日かかる
wgetを使ったほうが取り込みは速いとは書かれていましたが
Httrackのように、しっかり取り込みできますか
NHKの番組表程度だったら、できるかな?
- 503 :名無しさん@お腹いっぱい。:2011/03/31(木) 22:19:17.73 ID:JplTcRyR0.net
- VISTAでIE7使ってるんだけど、日テレのサイト取り込むには何がお勧め?(´・ω・`)
例えばこんなの
↓
http://www.ntv.co.jp/chienari/
- 504 :名無しさん@お腹いっぱい。:2011/04/01(金) 18:04:55.06 ID:xRp+kGAS0.net
- 2ちゃんねるのスレッドの保存には何を使えばいいでしょうか?
今は、好きなスレッドがあったら
ファイル>名前を付けて保存
で保存してますが、これでもいいんですかね?
この方法の場合、Webページ完全とかWebページHTMLのみとかありますが、どれが一番いいんでしょうか
とりあえずWebページHTMLのみというのを選んでるんですが
- 505 :名無しさん@お腹いっぱい。:2011/04/01(金) 23:32:30.09 ID:I3kOVvUq0.net
- >>504
2ちゃんねる専用ビューアでDATのまま保存をオススメ
DAT2HTMLとかのソフトで後からHTMLやテキストファイルに変換することも可能
普通に読むだけならHTMLだけを保存してもいいと思う
MHTMLなら画像とかも一緒に保存してくれる(ないこともある)
- 506 :503:2011/04/08(金) 06:39:02.29 ID:O8PDBMZ+0.net
- 回答が・・・どなたか回答を(´;ω;`)ブワッ
- 507 :名無しさん@お腹いっぱい。:2011/04/08(金) 11:12:59.21 ID:sdwIAebP0.net
- httrackでhttp://cgi4.nhk.or.jp/hensei/program/text/index.cgiを
取り込もうと思ったんだけど、トップページしか取り込めない
1週間前までは普通に全部取り込めました
httrackが拒否されてるという事でしょうか?
- 508 :名無しさん@お腹いっぱい。:2011/04/08(金) 17:38:56.19 ID:toP+TA3e0.net
- >>505
2ちゃんねる専用ビューアってフリーソフトみたいなものですか?
もう少し詳しくお願いします
あと、芸能人のやってるアメブロを保存するには何を使うのがいいですか?
- 509 :名無しさん@お腹いっぱい。:2011/04/08(金) 18:05:22.63 ID:ODoWyqCr0.net
- いろいろあるんだけどJaneが無難かな
JaneStyle
http://janesoft.net/janestyle/
JaneView
http://www.geocities.jp/jview2000/
JaneXeno
http://www3.ocn.ne.jp/~korwatch/janexeno.htm
- 510 :名無しさん@お腹いっぱい。:2011/04/10(日) 07:51:17.21 ID:2EVaxSnc0.net
- >>506
m9(^Д^)プギャーーー!!!
- 511 :名無しさん@お腹いっぱい。:2011/04/10(日) 22:26:02.67 ID:r6raCUVJ0.net
- 巡集で曜日指定のダウンロードする方法はないでしょうか?
あと、引数はどんなものがあるのでしょうか?
適当にやってたら-startで起動と同時に
ダウンロードが開始できることだけは確認できました。
よろしくおねがいします。
- 512 :名無しさん@お腹いっぱい。:2011/04/10(日) 22:35:08.17 ID:r6raCUVJ0.net
- ちなみに現在は別のツールからキックしています。
巡集自体の設定で実現可能であればそちらにしたいと考えています。
- 513 :名無しさん@お腹いっぱい。:2011/04/22(金) 10:30:47.67 ID:d7+lWIHr0.net
- 一定時間ごとに自動で巡回してくれる
サイトを丸ごと取り込めるフリーソフトないでしょうか?
- 514 :名無しさん@お腹いっぱい。:2011/05/06(金) 08:08:27.47 ID:evJF6buF0.net
- ここは過疎っているので他で聞いてみます
- 515 :名無しさん@お腹いっぱい。:2011/05/11(水) 10:55:51.25 ID:HcEd9XAn0.net
- >>513
cronでwgetをまわすといいよ
- 516 :名無しさん@お腹いっぱい。:2011/06/24(金) 18:03:34.03 ID:m9RhzJyk0.net
- どいつもこいつもパーセントエンコードされたURLを出鱈目な文字コードでデコードして保存しやがるけど、どんな低脳が作ってんだ?
- 517 :名無しさん@お腹いっぱい。:2011/07/01(金) 00:09:52.24 ID:anPvOplt0.net
- 巨大フォーラムを取り込めるソフト
ありませんか?
- 518 :名無しさん@お腹いっぱい。:2011/07/31(日) 23:09:41.06 ID:/04LhjsQ0.net
- タイマーで2chの実況スレを
ダウンロードできるようなソフトはないでしょうか?
- 519 :名無しさん@お腹いっぱい。:2011/08/03(水) 18:19:10.27 ID:Mv+vARYm0.net
- このソフト便利そうだけど、使ってみた人いる?
無料サンプル動画収集くん
http://sampledougasyusyu.blog.fc2.com/
- 520 :名無しさん@お腹いっぱい。:2011/08/04(木) 13:05:41.67 ID:F0yCqkP40.net
- >>517
そんなもの無い
- 521 :名無しさん@お腹いっぱい。:2011/08/09(火) 14:00:52.43 ID:4UZXVX1S0.net
- >>519
数年前だったらつかってたかも
今はまったく必要ないけど
- 522 :名無しさん@お腹いっぱい。:2011/08/12(金) 21:49:19.50 ID:A+bFfX8v0.net
- >>521
どうしてだい?
ちんこたたなくなったのか?
- 523 :名無しさん@お腹いっぱい。:2011/09/16(金) 21:02:29.29 ID:XaOvb9j60.net
- 使ってみた。
- 524 :名無しさん@お腹いっぱい。:2011/09/16(金) 21:04:15.07 ID:XaOvb9j60.net
- サンプル専門で収集してる人には便利かな。
根こそぎDLするから見るの疲れるけど。
- 525 :名無しさん@お腹いっぱい。:2011/10/11(火) 10:04:42.08 ID:Afz9Up6l0.net
- http://www.nicozon.net/watch/sm580404(´・ω・`)
- 526 :名無しさん@お腹いっぱい。:2011/10/19(水) 22:07:26.98 ID:1qVRjeoL0.net
- PC板の総合質問スレで質問したらソフトウエア板でということでした
ここでいいんでしょうか
すみません
どこで聞いたらいいかわからないので
RealPlayer SPでYoutubeなどをダウンロードしていますが
「このビデオをダウンロード」のボタンは表示されるし
左クリックすると「このビデオをRealPlayerにダウンロード」も表示されます
しかしダウンローダーが出てこないのです
RealPlayer Download and Record Plugin for Internet Explorerは有効で
「セキュリティの設定」の「ファイルのダウンロード」も有効です
また「 Unable to download 」は表示されません
どなたかエロイ人教えてください
ちなみにOSはXPでIEは8.0です
- 527 :名無しさん@お腹いっぱい。:2011/10/20(木) 04:10:43.21 ID:vn7BtAJfO.net
- age
- 528 :名無しさん@お腹いっぱい。:2011/10/31(月) 22:02:13.50 ID:fAJuLs4d0.net
- フォーラム系の膨大なページがあるサイトをダウンロードしたいのですが、
何か良いソフトないでしょうか?
- 529 :名無しさん@お腹いっぱい。:2011/11/01(火) 00:45:22.29 ID:77d+tSbQ0.net
- 今ならFirefox+Scrapbookあたり
ただ、鯖に対する負荷とか転送量のことを考えてやってくれよ
- 530 :名無しさん@お腹いっぱい。:2011/11/03(木) 22:44:54.09 ID:CDi4kRgv0.net
- >>529
遅れましたが、ありがとう。
- 531 :名無しさん@お腹いっぱい。:2011/12/28(水) 23:52:41.72 ID:cNlQoXC/0.net
- t
- 532 :名無しさん@お腹いっぱい。:2012/02/10(金) 22:43:16.54 ID:dGH4LKHB0.net
- 昔使っていたOfflineExplorerが素晴らしく使いやすかったので
改めて買おうとしたら高すぎ英語意味わからなすぎでワラタww
http://www.metaproducts.com/mp/offline_explorer.htm
Lifetime upgradeライセンスで将来のアップグレードが無料で手に入るらしいのに
Download protectionを別につけられるってどういうこっちゃ
物が確かなのはわかってるんだけどぼったくり会社っぽくて怖すぎる
- 533 :名無しさん@お腹いっぱい。:2012/03/21(水) 23:07:58.30 ID:6xVa6Whz0.net
- 一点質問なんですが2つのフォルダーでデータやり取りしているサイトはどのようにすればダウンロードできるでしょうか
http://Aに一覧があり
http//Bにデータが保存されている場合。
現在小説家になろうの小説を取り込めないか実施しております。
ご協力お願いします
- 534 :名無しさん@お腹いっぱい。:2012/03/21(水) 23:21:36.48 ID:2iY4RaFW0.net
- Aにリンクがあるなら、それを辿ればいいだけじゃないの
- 535 :名無しさん@お腹いっぱい。:2012/03/21(水) 23:23:14.22 ID:6xVa6Whz0.net
- >>534
丸ごと取り込む場合下位フォルダーしか保存できなくありません?
- 536 :名無しさん@お腹いっぱい。:2012/03/21(水) 23:51:23.76 ID:qtiw2xAE0.net
- そこはオプションしだいかと思います。ドメインが違うのなら取得対象ドメインとしてBを追加していないのではないでしょうか。
- 537 :名無しさん@お腹いっぱい。:2012/08/11(土) 17:24:02.33 ID:aXr1ntpO0.net
- 巡集はhttpsで始まるサイトは取り込めない?
あとUser-Agentで設定できる文字列の長さが短めに制限されてる
作者様に要望を出したいけど連絡の取りようが
- 538 :名無しさん@お腹いっぱい。:2012/12/02(日) 11:23:29.14 ID:8M7pkU6S0.net
- age
- 539 :名無しさん@お腹いっぱい。:2012/12/06(木) 12:17:35.17 ID:2D/ha+t00.net
- age
- 540 :名無しさん@お腹いっぱい。:2012/12/23(日) 17:37:36.10 ID:PKf790AM0.net
- cssファイルの中で指定されている別のcssファイルや画像をすべて取り込めるソフトはありますか?
- 541 :名無しさん@お腹いっぱい。:2013/01/25(金) 17:48:17.77 ID:nl3cHeHZ0.net
- URLに全角文字が含まれていてもオッケーなソフトってないですか?
- 542 :名無しさん@お腹いっぱい。:2013/01/27(日) 23:57:59.32 ID:zpNPQWLC0.net
- 巡集でWikiをローカル保存する事は出来た。
出来たけど…レイアウトがまるで再現されてない。
スタイルシート入れてみたけど、元のページと似ても似つかない、まるで半テキスト状態。
何か上手い手は無いものか…
- 543 :名無しさん@お腹いっぱい。:2013/01/28(月) 01:13:12.86 ID:cCjA9N780.net
- それはスタイルシートの再現が出来てないだけだと思うが
- 544 :名無しさん@お腹いっぱい。:2013/03/13(水) 23:23:31.58 ID:COFrzmvM0.net
- 2chのある板のスレを全て丸ごと取り込めるダウンロードソフトってありませんかね?
例えばここから一階層分だけダウンロードできればいいのですが、うまくできません。
Website Explorer
波乗野郎
ComGetter64
試したこの中では駄目でした。
外部rリンクをOKにしても駄目です。
正直困っております。
っていういか最後は変な画面が出て規制状態になって、何もできませんでした(IP変えたら直りましたが、何度も試す気に離れませぬ)
どのソフトなら
http://anago.2ch.net/software/subback.html
ここから一階層分だけダウンロードできるんでしょうか
- 545 :名無しさん@お腹いっぱい。:2013/03/13(水) 23:36:53.85 ID:a7RRbjQQ0.net
- ない
あるとしても即座に規制かかっておしまい
- 546 :名無しさん@お腹いっぱい。:2013/03/16(土) 14:39:56.55 ID:mET6QTJ90.net
- 普通に専ブラで片っ端から取得すればいいんじゃね?
- 547 :名無しさん@お腹いっぱい。:2013/03/16(土) 15:44:08.33 ID:DB2dBeO60.net
- それが面倒だから訊いてるんだろうな
- 548 :名無しさん@お腹いっぱい。:2013/03/18(月) 14:51:56.25 ID:xxqiRn4w0.net
- 規制されるのは取得間隔を数秒あけたりすりゃ回避できるんじゃないの?
- 549 :名無しさん@お腹いっぱい。:2013/03/18(月) 15:45:44.28 ID:n/vUs3WZ0.net
- ソースみるとリンク先はIDだけだけど実際には
software→test/read.cgi/softwareに書き換えられるみたいだし
うまく取得できないのはそのあたりの設定が出来てないからかなあ
- 550 :名無しさん@お腹いっぱい。:2013/03/25(月) 03:05:59.46 ID:f95fsGFY0.net
- atroposってprntscrnキーを設定することはできないの?
- 551 :名無しさん@お腹いっぱい。:2013/05/12(日) 06:29:55.05 ID:homI4KHO0.net
- gethtmlwで全く取得できないサイトに出会った
割と弾かれてるんだな
余裕で乗り越えたけど
- 552 :名無しさん@お腹いっぱい。:2013/05/14(火) 19:02:11.80 ID:yDZ7TQI70.net
- サイトのダウンロードソフトについてなんですが、そっくりそのまま保存してオフラインでも見れるようにしたいんです。
そのサイトはJavaScriptや動画も置いてあるんですが、そっくりすのまま保存することはできますでしょうか?
OSはwindows7です。
有料、無料どちらでも構いません。
- 553 :名無しさん@お腹いっぱい。:2013/05/26(日) 23:57:36.73 ID:og6d6/gf0.net
- 報告
ダウンロード・スパイダー使っていたら、IEのWEBページの保存が出来なくなった
- 554 :名無しさん@お腹いっぱい。:2013/05/31(金) 21:55:18.53 ID:uZUQOv7m0.net
- GetHTMLWがCRCか出力先が〜と表示が出て正常に解凍・DL出来ないのですが、どうすればいいのでしょうか。
OSはwindows vistaです。
- 555 :名無しさん@お腹いっぱい。:2013/09/14(土) 22:13:24.97 ID:CXBwsMJ/0.net
- 555 get !
- 556 :名無しさん@お腹いっぱい。:2013/10/14(月) 14:28:53.91 ID:kSUr/BCk0.net
- ウェブページをJavascriptごと保存して、さらに更新有無に関係なく
チェックした時ごと(1日ごと、12時間ごと)に履歴を保存してくれるのってありますか?
今はHTTrackを使っていますが差分を履歴と確認したくて…
- 557 :名無しさん@お腹いっぱい。:2014/01/17(金) 21:27:59.74 ID:4BAKXmKO0.net
- 保守
- 558 :名無しさん@お腹いっぱい。:2014/02/28(金) 04:38:18.23 ID:PtzNWAqB0.net
- ATWIKIのサイトを取り込むコツないかな?
- 559 :名無しさん@お腹いっぱい。:2014/02/28(金) 12:57:50.30 ID:QvnC3EMh0.net
- >>558
HTTrackなら↓みたいな感じで
@wikiメニューのリンク拾って除外登録していけば無駄な取り込みはなくなるはず
-www00.atwiki.jp/hogehoge/new
-www00.atwiki.jp/hogehoge/editx/*.html
-www00.atwiki.jp/hogehoge/diffx/*.html
最大階層最小で試して不要なリンク洗い出すといいよ
wikiの取り込みは鯖に負荷掛かると思うんで設定は気をつけてね
- 560 :名無しさん@お腹いっぱい。:2014/04/12(土) 00:01:33.91 ID:piRO/wAX0.net
- フォレストの携帯サイトを取り込めるダウンローダー知らないですか(つД`)
巡集はアドレス長くて書き込みエラー
weboxも何故かエラー
スクラップブックはリンクが70までしか辿れなくて断念
getHTMLは取り込めたけど取りこぼし大量に出た
他のダウンローダーも.html形式じゃないからか失敗するよー
- 561 :名無しさん@お腹いっぱい。:2014/05/08(木) 05:15:50.10 ID:S+GF45Tc0.net
- アップローダにあげられた物が落とせないのですが
httrackで落とす場合はどう設定すれば良いのでしょうか
表面のページのみで中身が一切落とせないです。
ttp://yukkuri-futaba.sakura.ne.jp/kariloader/ssanko.html
- 562 :名無しさん@お腹いっぱい。:2014/05/08(木) 19:02:13.75 ID:Ejo0hQ3D0.net
- >>561
試してみたがHTTrackじゃ無理っぽい
Cookie設定すればそのページ自体は拾えるけど
各投稿の相対リンクが?で始まってるせいかリンク先を拾ってくれないね
それにリンク先拾えてもflash経由でテキスト表示してるから
flashの解析も出来るツールじゃないとアップロードされたテキストは取って来れないと思う
- 563 :名無しさん@お腹いっぱい。:2014/05/10(土) 10:48:33.83 ID:Ne1h6I/L0.net
- ネット小説を保存するのには
どんなソフトを使ったらいいでしょうか?
- 564 :名無しさん@お腹いっぱい。:2014/05/10(土) 21:00:37.39 ID:FkoA4TlM0.net
- >>563
IEでおk
- 565 :名無しさん@お腹いっぱい。:2014/05/12(月) 23:45:03.04 ID:i13e208b0.net
- wget以外でパス付きのサイトダウンロードするソフトない?
- 566 :名無しさん@お腹いっぱい。:2014/06/05(木) 00:11:41.72 ID:qF77yrzL0.net
- >>561
マジ?教えてお願い。
フォレスト何年もあきらめてたorz
GetHTMLWで出来たってこと?
- 567 :名無しさん@お腹いっぱい。:2014/06/05(木) 07:15:01.12 ID:UBg0CeAy0.net
- 古いVer.だとなお速いぞ
- 568 :名無しさん@お腹いっぱい。:2014/06/05(木) 08:02:02.37 ID:0/gSZuHj0.net
- Ver 8から同一ホストからの同時DLが1に制限されてるから、Ver 7.12.0をWebArchiveとかから拾ってくれば同時DL4まで可能。
相手方の負担を考えなければ実に快適だな。
- 569 :名無しさん@お腹いっぱい。:2014/06/06(金) 00:00:03.18 ID:EiBQjR9Q0.net
- うちのも7.12.0だな
- 570 :名無しさん@お腹いっぱい。:2014/06/06(金) 09:16:33.67 ID:BP3ACk690.net
- おれ使ってるのは7.11.5だった
- 571 :名無しさん@お腹いっぱい。:2014/06/06(金) 10:55:15.35 ID:zlKKgRCS0.net
- IrvineでURL解析にてダウンロードするべきURLを選んでDLするのも手ではある
robots.txtを弾いてUAも偽装して、それでもGetHTMLWでDLできない場合の最終手段
- 572 :名無しさん@お腹いっぱい。:2014/06/15(日) 09:25:01.74 ID:hsbulYYi0.net
- >>566
スレ離れてて遅レスになったけどもうできた?
- 573 :名無しさん@お腹いっぱい。:2014/06/16(月) 23:00:28.10 ID:m0YS9fWe0.net
- >>572
できてないよorz
GetHTMLWでいいの?
フォレストとりこめたなんてすごいよ
よくわかったね
- 574 :名無しさん@お腹いっぱい。:2014/06/17(火) 06:39:41.44 ID:B5QBqdwa0.net
- atwikiを保存してほかのwikiにコピーして存続させたいんだがうまく取れるソフトはないかね絵…
- 575 :名無しさん@お腹いっぱい。:2014/06/17(火) 09:10:09.25 ID:x5D8mRI50.net
- wikiを別に移したいのなら
htmlソースを取り込んでも意味無いんじゃないか
- 576 :名無しさん@お腹いっぱい。:2014/06/17(火) 12:33:19.19 ID:B5QBqdwa0.net
- 構造ごとぶっこ抜けるソフトってありませんかね
wikiの運営には詳しくないものでデータだけでも集められれば作り直すのも不可能ではないと思いまして
- 577 :名無しさん@お腹いっぱい。:2014/06/17(火) 12:51:38.14 ID:x5D8mRI50.net
- 管理者じゃない限り、手作業で1個ずつwikiのソースをコピーするしかないよ
- 578 :名無しさん@お腹いっぱい。:2014/06/17(火) 13:55:07.26 ID:W7OE9+f10.net
- >>573
追跡ページ制限気にしないならscrapbookでも取り込める(確か90ページくらい)
gethtmlw使うなら取得条件>フィルタ編集を同梱のgethtmlw.txtを見ながら編集
自分の場合
1:サイトの共通URL
0:\.*
で取り込めたと思うたぶん
- 579 :名無しさん@お腹いっぱい。:2014/06/17(火) 15:11:46.11 ID:6Cl5a3940.net
- φ(.. )メモメモ
- 580 :名無しさん@お腹いっぱい。:2014/06/17(火) 21:18:13.55 ID:n2xsu56C0.net
- >>578
レスありがと
やってみるよ
できたら報告にきます
報告なければできなかったということで
あいつアホだったかとでも思っててくださいw
- 581 :名無しさん@お腹いっぱい。:2014/08/17(日) 15:30:32.21 ID:ir6+HsPe0.net
- 会員登録が必要なサイトをまるごと取り込みしたいのですが、
weboxを使って、まるごと取り込みしようとすると
ログインしてください、というログインできていないエラーメッセージのhtmlファイルがダウンロードされてしまいます。
それぞれのページを、ページ取り込みすると、
問題なくログインされた状態でのページのhtmlファイルを保存することができます。
数千ページもあるので一つ一つ開いて保存していくのが面倒なので
一括保存したいと考えています。
これはIEで一度開いたことでログインされた状態でのhtmlファイルがキャッシュフォルダに保存されることによるものなのか
どうかを知りたいのですが、
リンクを右クリックしてURLからページをダウンロードすることってできないのでしょうか?
要はIEで一度でもページを開いていれば、一括取り込みで正常な方が取り込まれるのかどうかを知りたいのですが
どうすれば良いでしょうか?
- 582 :sage:2014/08/19(火) 23:30:59.82 ID:h0ReaNNp7
- すみません、今は見られなくてしまって、webarchiveで保存されてる画像掲示板を
HTTrack保存したいんですが、設定はどのようにしたら良いでしょうか?
http://web.archive.org〜が付いたhpは連続して保存できないのかな?
- 583 :名無しさん@お腹いっぱい。:2014/09/18(木) 14:15:22.01 ID:ttWc5ZOa0.net
- m9
- 584 :名無しさん@お腹いっぱい。:2014/11/13(木) 11:21:59.28 ID:BOi0pnCs0.net
- ●
- 585 :名無しさん@お腹いっぱい。:2014/12/07(日) 19:49:42.73 ID:c2gBrHWI0.net
- ようつべ
- 586 :名無しさん@お腹いっぱい。:2014/12/26(金) 16:15:32.96 ID:7VvUAsKm0.net
- /:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::://ヽ:::::::::::::::|
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::// ヽ::::::::::::::l
l:::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::/:::「'ヽ:::::::::::// ヽ:::::::::::|
|::::::::::::::::::::::::::::::::::::::::::::::::::::::::::ノl:::ノ l:::::::/ ヽ::::::::|
ノ:::::::::::::::::::::::::::::::::::::::::::::::::::::/ ゙゙ ノ:::/ ,,;;;;;;,, ,,,,ヽ:::::l
):::::::::::::::::::::::::::::::::::::::::::::::/ ノ/ __,'''i: ('''__):::l
)::::::::::::::::::::::::::::::::::::::::::::::::::/  ̄ ̄ン:. :「 ̄`ヾ
1:::::::::::::::::::::::「 `┤l:::::::::::::::::l  ̄ , ヽ ̄ l
`l:::::::::::::::::::::ヽ :l li:::::::::::::/ ヽ /´ `l |
ヽ::::::::::::::::::::::\_」 lヽ::::/ .l !:-●,__ ノ /
ノ:::::::::::::::::::::::::::ノ | l `゙゙ i ,,;;;;;;;;;;;;;;;;;;;;, /ヽ
,/ ヽ::::::::::::::::::::::( l l::::::::.. /.:''/´ ̄_ソ / `ヽ
ヽ:::::::::::::::ヽ | l:::::::::::... /::// ̄ ̄_ソ / \ ヴッ!!
ヽ:::::::\| l::::::::::::::::... / :::.ゝ` ̄ ̄/ / ヽ
ヽ:::l l:::::::::::::::::::..  ̄ ̄;;'' / ヽ
l l;;;;;;:::::::::::::::.....;;;;............;;;;;;''ノ l
l l '''''''''''''''''''''''''''''''''''''' ̄l | |
http://www.youtube.com/watch?v=z2qK2lhk9O0
- 587 :名無しさん@お腹いっぱい。:2015/02/02(月) 14:02:34.40 ID:JkiDLaz40.net
- t
- 588 :名無しさん@お腹いっぱい。:2015/02/11(水) 13:24:59.59 ID:EIUIF3gW0.net
- wgetを使いこなせば、 javascriptによるリンクや、phpなどによる動的なurlを柔軟に処理できますか?
- 589 :名無しさん@お腹いっぱい。:2015/02/11(水) 16:20:02.81 ID:A3iM2ZFo0.net
- はい
- 590 :名無しさん@お腹いっぱい。:2015/02/22(日) 02:36:04.73 ID:w+6nav8q0.net
- http://xenobladedata.web.fc2.com/
このサイトを巡集やらいろんなソフト使って保存してもレイアウトが崩れてしまいます
どなたか助けてください(´;ω;`)
- 591 :名無しさん@お腹いっぱい。:2015/02/22(日) 07:44:19.56 ID:VhCspjFi0.net
- >>590
ソース見るとCSSをJavaScriptで切り替えてるから拾えてないだけかな
CSSの直リンも追加して取り込めばいけると思うが
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
- 592 :名無しさん@お腹いっぱい。:2015/02/22(日) 09:34:46.89 ID:w+6nav8q0.net
- 初心者でさっぱりなんですが、CSSの直リンってどこ見ればわかるのでしょうか??
後そのCSSの中身をコピーして、落としたhtmlに貼りつけていくって事なのですか??
- 593 :名無しさん@お腹いっぱい。:2015/02/22(日) 09:44:28.45 ID:w+6nav8q0.net
- あ、CSSファイルを外部から読み込むのか・・・
すいません今から少し勉強してみますw
- 594 :名無しさん@お腹いっぱい。:2015/02/22(日) 10:07:10.81 ID:OvZIuqnD0.net
- 動的にcssを読み込んでたりとか、
cssの中でさらに別のcssを読んでたりは対応しないから
一度取り込んだ後に追加URLでcssを読み込ませる必要がある
- 595 :名無しさん@お腹いっぱい。:2015/02/22(日) 11:29:20.03 ID:w+6nav8q0.net
- 一応できましたw
>>591さんと>>594さん本当にありがとうございました
追加するのがめんどくさいので、まとめて追加するソフトでも探してきますw
- 596 :名無しさん@お腹いっぱい。:2015/02/22(日) 22:33:22.35 ID:VhCspjFi0.net
- >>595
うまくいったみたいで何より
CSSのURLはソース見て追いかけるしかないかなあ
フォルダ構成が変わるから注意だけど
巡集なら詳細設定 > 取得設定 > HPタイトル(ログ用) > URLから生成 or 直接入力
にすればまとめて保存できると思う
- 597 :名無しさん@お腹いっぱい。:2015/02/23(月) 01:42:25.02 ID:Lupf5rXn0.net
- ??
HPタイトル(ログ用)ってフォルダ名を変えるだけですよね?
デフォルト設定で何か問題あるのですか??
- 598 :名無しさん@お腹いっぱい。:2015/02/23(月) 07:28:24.10 ID:WGiI2GdA0.net
- >>597
デフォだとHPタイトルごとにフォルダが作られるけど
596の設定だとURLごとに作られるから
取得URLに↓を書けばxenobladedata.web.fc2.comのフォルダが出来てまとまるってこと
http://xenobladedata.web.fc2.com/
http://xenobladedata.web.fc2.com/ie.css
http://xenobladedata.web.fc2.com/ff.css
http://xenobladedata.web.fc2.com/op.css
http://xenobladedata.web.fc2.com/gc.css
http://xenobladedata.web.fc2.com/nml.css
- 599 :名無しさん@お腹いっぱい。:2015/02/24(火) 03:45:07.05 ID:UGZgzTpW0.net
- こんな便利な方法があったのかww
自分website explore使ってたので、バナー消したりcssのリンク追加したりしてましたよw
すいません何度も助けていただいてありがとうございます
- 600 :名無しさん@お腹いっぱい。:2015/03/19(木) 21:35:16.72 ID:788O9MZS0.net
- FC2のダウンロードがしたいです。アップはしてません。
自分でちゃんと外部タグを見ればダウンロードできるのでしょうけど
面倒です。それでFC2動画ダウンローダーを3千円ほどで買おうと
思うのですがどうなんでしょうか。教えて下さい。m(_ _)m
KSソフトウェアーってとこなんですけど。宜しくお願いします。
http://www.simple-downloader.com/
- 601 :名無しさん@お腹いっぱい。:2015/03/19(木) 21:45:38.13 ID:UF2HDIz30.net
- 最近はWinHTTrackやTeleport Proといった海外ソフトしか更新していない
- 602 :名無しさん@お腹いっぱい。:2015/05/28(木) 11:20:32.26 ID:LpX/6Zfv0.net
- Craving Explorerはウイルスらしいよ
プログラム終了してもプロセス残ってる
- 603 :名無しさん@お腹いっぱい。:2015/05/29(金) 10:35:41.67 ID:WyPaR80i0.net
- >>602
右上の[x]でタスクトレイに残る仕様
- 604 :名無しさん@お腹いっぱい。:2015/06/02(火) 16:45:58.44 ID:eHZ6wgAA0.net
- >>603
そうなのかあ。でもデフォルトで残すのはどうもねえ。
気色悪いからFreemakeVideoDownloaderにしたよ。
- 605 :名無しさん@お腹いっぱい。:2015/06/03(水) 04:41:04.14 ID:MMwqrRbf0.net
- >>602-603
「ツール」→「Craving Explorer オプション」→「通知」タブ→「タスクトレイに格納する」欄でチェックを外せば、
それらの現象は発生しなくなるよ。
初期状態でチェックが入っていたかどうかは忘れたが、あれでウイルス呼ばわりとは情弱もいいとこだろ(w
- 606 :名無しさん@お腹いっぱい。:2015/06/03(水) 08:28:27.52 ID:6glLSngY0.net
- >>605
確かに調べ方が足りなかったが、インストール時に確認もしないで
Mcafeeや天気ソフト勝手にインストールしたり、使ってない時にも
タスクトレイに常駐するのがデフォルトなんてのは迷惑でしかないわ。
- 607 :名無しさん@お腹いっぱい。:2015/06/03(水) 08:49:07.34 ID:MMwqrRbf0.net
- >606
インストーラ形式の配布ファイルをダウンロードした場合は、そんな目に遭うのか。
俺は今までZIP形式の配布ファイルしかダウンロードした事なかったから知らなかったよ。
- 608 :名無しさん@お腹いっぱい。:2015/06/03(水) 11:08:30.82 ID:sOBS0atv0.net
- >>607
606は胡散臭いソフトにありがちなデフォでチェックが入っているのを見逃してインストールしただけだよ
普通に回避できる
- 609 :名無しさん@お腹いっぱい。:2015/06/03(水) 11:17:36.16 ID:6glLSngY0.net
- Cravingの作者のページの「今すぐダウンロード」クリックしたら
ウイルスバスターに引っかかった。
いずれにせよ以前はいいソフトだったけど、もう終わってるソフトだよ。
- 610 :名無しさん@お腹いっぱい。:2015/06/03(水) 20:13:57.38 ID:xxSSNGCM0.net
- さてはお前Flashプラグインと一緒にMcafee入たことあるだろ
- 611 :名無しさん@お腹いっぱい。:2015/06/03(水) 23:20:17.02 ID:x11Br7AU0.net
- ウイルスバスター(笑)
- 612 :名無しさん@お腹いっぱい。:2015/06/03(水) 23:22:05.55 ID:6glLSngY0.net
- ウイルスドクターじゃないよ
- 613 :名無しさん@お腹いっぱい。:2015/06/04(木) 08:52:23.60 ID:I3isPSnx0.net
- ウイルスバスターは無いわー
有名なESETに乗り換えを検討したら?
- 614 :名無しさん@お腹いっぱい。:2015/06/07(日) 10:25:26.52 ID:rCRTcimQ0.net
- FLASHXの動画をDLしたいんだが
- 615 :名無しさん@お腹いっぱい。:2015/08/02(日) 19:53:58.97 ID:vgZfvBkf0.net
- website explorerに代わるものが未だに見つけられん
階層そのまままるごとダウンロードしたいんだよ・・・
おかしな最適化とかして欲しくないんだよ
- 616 :名無しさん@お腹いっぱい。:2015/08/02(日) 20:50:12.96 ID:RKoieSBh0.net
- >>615
website explorer、この前久々に新しいバージョンが出てたよ
あと似たようなソフトだと、Cyotek WebCopyが近い感じだと思う
こっちは今でも開発中
- 617 :名無しさん@お腹いっぱい。:2015/08/09(日) 10:50:50.55 ID:QRZYOF0T0.net
- 巡集でWIKIみたいなURLにパーセントが入ってるサイトのダウンロードって無理ですかね?
このサイト何ですけど
http://july.dyndns.info/varietywiki/index.php?%A5%B2%A1%BC%A5%E0%2F%A5%DF%A5%F3%A5%B5%A5%AC
- 618 :名無しさん@お腹いっぱい。:2015/08/10(月) 07:22:02.59 ID:wkSgRzj+0.net
- >>617
詳細設定 > 取得設定 > URLの%を変換しないをON
- 619 :名無しさん@お腹いっぱい。:2015/08/10(月) 11:09:00.22 ID:KuK/+Yns0.net
- それすでに試したけど駄目でしたね
wgetを使わないと無理なのかな?
http://android-smart.com/2011/07/%E3%80%8C%E5%B7%A1%E9%9B%86%E3%80%8D%E3%81%A7%E4%B8%8A%E6%89%8B%E3%81%8F%E4%B8%B8%E3%81%94%E3%81%A8%E4%BF%9D%E5%AD%98%E3%81%A7%E3%81%8D%E3%81%AA%E3%81%84%E3%82%B5%E3%82%A4%E3%83%88%E3%81%AB%E3%81%AF.html
- 620 :名無しさん@お腹いっぱい。:2015/08/10(月) 20:31:22.79 ID:wkSgRzj+0.net
- >>619
すまん
ONにすればダウンロード自体は出来たから中身までは見てなかったわ
とりあえずHTTrackで試してみたがこっちなら落とせると思うよ
wikiのダウンロードは相手に負荷かかるから設定に気を付けてね
- 621 :名無しさん@お腹いっぱい。:2015/08/10(月) 22:34:19.56 ID:KuK/+Yns0.net
- >>620
親切にありがとうございます
できれば巡集がいいのですが、無理そうですかね?
- 622 :名無しさん@お腹いっぱい。:2015/08/10(月) 23:39:18.03 ID:wkSgRzj+0.net
- >>621
巡集で落としたファイルを見た感じ
wikiとかの動的なページの取り込みに完全対応していないみたいだから
どうにもならないと思う
- 623 :名無しさん@お腹いっぱい。:2015/08/10(月) 23:44:06.31 ID:C51cH/kB0.net
- 今のところwikiを丸ごと落とせるソフトはないよ
- 624 :名無しさん@お腹いっぱい。:2015/08/11(火) 12:32:34.98 ID:JcoulAXO0.net
- 了解しました。ありがとうございます
すいません後一つ質問があるのですが、このページ保存して使えるようにならないですかね?
http://kumaabaron.web.fc2.com/jiten_v1_2.html
- 625 :名無しさん@お腹いっぱい。:2015/08/11(火) 18:03:15.18 ID:8J9/zggO0.net
- 巡集で落とすとjsファイル中の改行正しく取れてないみたい
↓のファイルを名前を付けて保存とかで置き換えてやれば動くはず
ttp://kumaabaron.web.fc2.com/jiten_v1_2.js
- 626 :名無しさん@お腹いっぱい。:2015/08/11(火) 19:20:34.97 ID:m59hdRKx0.net
- すいませんどこをどう置き換えればいいのか(´・ω・`)
ヒント貰えませぬか(´・ω・`)
- 627 :名無しさん@お腹いっぱい。:2015/08/11(火) 19:27:29.30 ID:m59hdRKx0.net
- 保存して上書きの事なら駄目でした
- 628 :名無しさん@お腹いっぱい。:2015/08/11(火) 20:10:39.42 ID:8J9/zggO0.net
- いやそのままの意味だが
>>625のURLのjiten_v1_2.jsを
巡集のファイルの保存先にあるjiten_v1_2.jsに上書き
- 629 :名無しさん@お腹いっぱい。:2015/08/11(火) 22:46:49.44 ID:m59hdRKx0.net
- IEなら見れましたが、Chromeだと駄目ですね
ちょい調べてみます
- 630 :名無しさん@お腹いっぱい。:2015/08/11(火) 23:07:04.85 ID:8J9/zggO0.net
- >>629
それはローカルファイルのアクセス許可してないからじゃね
Chromeでローカルのスクリプト動かすにはオプションつけないとだめだよ
"C:\〜\chrome.exe" --allow-file-access-from-files
- 631 :名無しさん@お腹いっぱい。:2015/08/11(火) 23:14:42.52 ID:m59hdRKx0.net
- できました。・゚・(ノД`)・゚・。
ありがとうございます
ありがとうございます
ありがとうございます
- 632 :名無しさん@お腹いっぱい。:2015/08/20(木) 10:22:17.25 ID:/wUo6m5X0.net
- http://ameblo.jp/daisuke18/imagelist.html
アメブロの画像一覧にある写真の、リンク先にある大きい画像を
まとめて落とせる方法がありますか。ブックマークレットを使って
右クリックで保存できるようにする方法は知ってますが
一枚一枚保存するのが大変なもんで・・・
- 633 :名無しさん@お腹いっぱい。:2015/08/20(木) 18:13:40.56 ID:igW2lWLi0.net
- >>632
そこではためしてないけどfirefoxだったらdown them allってアドオンでできそう
あとはDCさくら とか
- 634 :名無しさん@お腹いっぱい。:2015/08/20(木) 19:38:10.11 ID:/wUo6m5X0.net
- レスありがとうございます。教えていただいたソフトは画像一覧に出てくる画像を
まとめてできそうですね。ただ自分が欲しいのは、画像一覧のどれかを
さらにクリックして出てくる大きい画像なんです(泣)。説明が下手ですいません。
しかもその大きい画像は「右クリックで保存」ができないので、調べてやっと一枚一枚
保存できる方法はわかったんですけど量が多くて困っているとこなんです
- 635 :名無しさん@お腹いっぱい。:2015/08/20(木) 19:59:27.07 ID:/wUo6m5X0.net
- あ、DCさくらの説明にそれっぽいことが書かれています。 今から試してみます。
- 636 :名無しさん@お腹いっぱい。:2015/08/20(木) 22:21:32.84 ID:TgfH37KW0.net
- >>632
調べた感じ無理
JavaScriptで表示画像を切り分けてるようだけど
汎用ツールでJavaScriptの解析してURLを取り出せるようなものは存在しないはず
ググったら専用ツールとかRubyスクリプトはあるみたいだから
それを利用するぐらいしかない気が
htmlとかJavaScriptが読めるならhttrackとかでhtmlファイル落として
パースしてやれば画像URLを取り出すのは難しくないと思う
- 637 :名無しさん@お腹いっぱい。:2015/08/22(土) 13:58:52.53 ID:Rly0uQHr0.net
- さらにレス付けている方がいるとは思わず、返事遅れてすいません。
おっしゃっていることが難しくよく理解できないんですけど、このへんを見て
http://serverkurabe.com/ameblo-to-wp-image/
大きい画像のURL一覧は作成できました。
それをリンク先のサイトのように、Irvineでダウンロードしても
結局URLのコピーになって画像そのものは落ちてきません。
そもそもIrvineに登録時点で、URLの末尾がhtlmではなくてjpg等になってないとだめなのか
はたまた右クリックで保存できない仕様だから無理なのかよくわかりません。
画像のURL一覧(末尾html)を使って一括で落とせるソフトはないでしょうか。
636さんの最後の2行はそのようなことをおっしゃっているんでしょうか?
- 638 :名無しさん@お腹いっぱい。:2015/08/22(土) 14:27:25.21 ID:Rly0uQHr0.net
- http://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q1496147004
どれか一つ画像を選び、その大きい画像(html)を上記方法でjpg表示にすると
全くURLが変わります。その時点で、大きい画像のURL一覧(html)は、
一括保存には役に立たないんでしょうか
頭悪くてすいません。何かアドバイスがあればよろしくお願いします。
- 639 :名無しさん@お腹いっぱい。:2015/08/22(土) 21:11:25.27 ID:9v9ZaUJD0.net
- >>638
私立メロン高校パソコン部
- 640 :名無しさん@お腹いっぱい。:2015/08/22(土) 23:07:36.74 ID:Rly0uQHr0.net
- レスありがとうございます。明日調べてみます。できるだけ自力で頑張りたいですが、
どうしても自分の望む結果が得られる設定等使い方がわからなかったら
すいませんがまた質問させてください。よろしくお願いします。
- 641 :名無しさん@お腹いっぱい。:2015/08/22(土) 23:21:35.55 ID:Rly0uQHr0.net
- あ、思い出しました。自分が落としたいサイトの名前が付いたダウンローダー
のことをおっしゃっているんだと思いますが、使いましたが、画像一覧の小画像は
落ちてきますが元画像の大きいのは無理でした。自分の設定が悪かったのかな。
- 642 :名無しさん@お腹いっぱい。:2015/08/23(日) 01:44:40.52 ID:fJ53XnBu0.net
- さすがに情報後出し教えて君過ぎるので
もうこれ以上フォローはしない
ttp://www.dotup.org/uploda/www.dotup.org480696.txt
2〜3日前に落としたhtmlからURL抽出したんで最近の画像は入ってないはず
あとは自力で
手動でのURLの抽出方法は以下、>>636でピンとこないなら読まなくてよい
HTTrackで>>632のURLをとりあえず3階層分落として
秀丸でimage-*.htmlをgrep、検索文字列は「"current": {」
出来たリストの「"imgUrl":」以降に
画像ファイルの相対パスが入ってるので矩形選択等で切り出す
画像のドメインはstat001.ameba.jpなので
相対パスの前にくっつけてURL完成
- 643 :名無しさん@お腹いっぱい。:2015/08/24(月) 17:49:10.84 ID:YlI3KiMU0.net
- また後出し君になってしまいました・・・。こちらの画像が欲しかったんですが
http://ameblo.jp/ishiharajun/imagelist.html
なんか自分の趣味を見せるみたいだったので、前のは例として挙げました。まさかリストまで作っていただけるは思わず、本当に本当に申し訳ないです。「手動での〜」以下、
質問して自力でやりたいけど、アホだから延々と続くと思いますのでやめておきます。
もし気が向いて暇な時にもう一回だけアホのためにリスト作ってもいいかなと思われたら
ありがたいです。もう書き込みはやめます。 親切に何度もありがとうございました。
スレ汚しみたいになって他の住人さんにも謝ります。
- 644 :名無しさん@お腹いっぱい。:2015/08/24(月) 21:25:35.93 ID:AwVEz0ch0.net
- リスト作れとか図々しすぎてわろた
- 645 :名無しさん@お腹いっぱい。:2015/08/30(日) 23:00:32.47 ID:BDWlhiRC0.net
- 相手が女かもと思って途中までめっちゃ親切なのウケるw
- 646 :名無しさん@お腹いっぱい。:2015/09/02(水) 08:25:19.39 ID:uqeCSoBo0.net
- dcさくらでできたけど
- 647 :名無しさん@お腹いっぱい。:2015/09/02(水) 09:09:40.88 ID:cTN0L3v+0.net
- 画像ページを開いてから落とすのは出来るけど
画像リストページからリンク先の画像は取れなくね
- 648 :名無しさん@お腹いっぱい。:2015/09/02(水) 23:31:30.02 ID:7+MYnnXj0.net
- Irisで何でもできる
インテリジェントな処理はケースバイケースで自作
リトライしながら複数スレッドで落としてくれるだけで十分有り難い
その部分まで組もうと思うと大変
- 649 :名無しさん@お腹いっぱい。:2015/09/03(木) 06:44:44.56 ID:/G1C3ynY0.net
- dcさくらの場合コンテンツ抽出を繰り返せば目的にたどりつく
- 650 :名無しさん@お腹いっぱい。:2015/09/06(日) 06:23:14.24 ID:zvG+R+wu0.net
- index.htmlを除外するにはどうしたらいいのでしょうか
フィルタ設定しても絶対にトップページをダウンロードしてしまいます
- 651 :名無しさん@お腹いっぱい。:2015/09/06(日) 06:39:07.92 ID:zvG+R+wu0.net
- あ、使用ソフトは巡集です
よろしくお願いします
- 652 :名無しさん@お腹いっぱい。:2015/09/06(日) 07:15:24.82 ID:zvG+R+wu0.net
- 謎解けました
お騒がせしてすいませんでした
- 653 :名無しさん@お腹いっぱい。:2015/09/18(金) 00:26:24.20 ID:TYpmDXyN0.net
- Win8.1でホームページ取り込みをするにはどのそふとがよいですか?
- 654 :名無しさん@お腹いっぱい。:2015/10/26(月) 17:44:06.21 ID:zHYr0+XK0.net
- 教えてくんを甘やかしすぎw
- 655 :名無しさん@お腹いっぱい。:2015/11/04(水) 00:19:37.48 ID:h9eq5OR90.net
- ?付きアドレスを正しく、もしくは強制的にローカル参照ファイルとして取り込んでくれるものはもう無理かな。あとjavascript使ってるやつ。
teleportと巡集とhttrack試したけど、どれか1つのツールだけでOKってのは無いね。
?がついてるURLページを何度も何度もとりに行ってhtmlと画像の同じファイルが100個以上出来たり、
jsもcssもちゃんと取り込めてるのにマウスオーバーとかの処理が出来てなかったり、
相対パスを正しく認識出来ず、ローカルファイルへのリンク書き換えも対象ファイルの取り込みも無視されたり。
複数のツールをサイトごとに使い分けるのがベターかも。
- 656 :名無しさん@お腹いっぱい。:2015/12/03(木) 15:48:33.53 ID:B0Usj2+U0.net
- VisualWget使ってみた
%E3%81%82〜
こういった日本語含むパーセントエンコードされたURLって落とすの不可?
漢字がバグったようなURLになって止まってしまう
restrict-file-names=nocontrol を追加したら少し進むがやっぱ止まる
wget使ってる人どうやってるの
ご助言くだされ
- 657 :名無しさん@お腹いっぱい。:2015/12/06(日) 02:07:33.03 ID:F8C9cYsk0.net
- こんなところにバグレポ&パッチ書いても仕方ない気はするけど書いとく。
GetHTMLW/GetHTMLのバグ
・取得中、取得するURLに拡張子が無い場合にフリーズ、強制終了することがある
原因はNULLポインタへのアクセス。
関数 get_extptr(hdrlistw.cpp、138-144行) が、NULLポインタを返す
可能性があるにもかかわらず、その対処を怠っていたこと。
どうなっているかは次のアドレス/行番号を参照
(GetHTMLW 8.3.0)GetHTMLW.exe
0040FF5B-0040FF6D (実行ファイル上:00F55B-00F56D)
(GetHTML5.3.1) GetHTML.exe
004089AB-004089BD (実行ファイル上:007FAB-007FBD)
(GetHTML5.3.1) hdrlistw.cpp、510-511行
> q = get_extptr(p);
> if (*q == '.') {
パッチ(変更箇所のみ)
(GetHTMLW 8.3.0)
0040FF64 90 NOP
0040FF65 90 NOP
0040FF66 90 NOP
0040FF67 90 NOP
0040FF68 90 NOP
0040FF69 83F8 00 CMP EAX,0
0040FF6C 74 33 JE SHORT GETHTMLW.0040FFA1
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)
(GetHTML5.3.1の)hdrlistw.cpp、510-511行
q = get_extptr(p);
if (q != NULL) {
- 658 :名無しさん@お腹いっぱい。:2015/12/06(日) 22:48:50.52 ID:5T85n6PV0.net
- うちのは7.12だな
- 659 :名無しさん@お腹いっぱい。:2015/12/06(日) 23:28:00.92 ID:F8C9cYsk0.net
- >>658
とするとこのバグは無いはず。
あと、7.12のままなのは1ホストからの同時取得数制限が掛かる直前のバージョン
ということもあると思うけど、7.13以降は定義ファイルを書けば以前と同じ状況に緩和できる。
(Waitも挿入できるからアクセス過多で弾かれないようにもできるかもね)
-------------------------------------
>>657追記
条件は次の4つで、これが実装されているのは GetHTMLW 8.0.0/GetHTML 5.0.0 以降。
1:(拡張子の無い)そのURLのデータを既に取得している
2:そのURLは更新されている(オプションにより内容、httpヘッダで返される時刻が)
3:そのURLから再取得しようとする
4:「取得条件設定」の「E:旧データを保存」が有効になっている
で、この時に>>657で示した既存ファイルのリネームルーチン内でNULLポインタに
アクセスする状況になる。
- 660 :名無しさん@そうだ選挙に行こう:2015/12/14(月) 17:06:21.83 ID:KBPfaGx40.net
- アメブロの保存をしている方がいたら教えて欲しいのですが、
アメブロの保存に向いているソフトはなんでしょうか?
今はscrapbookを使っているのですが、ダウンロードと構築に膨大な時間がかかったわりに
後で見返すと途中でリンクが繋がっておらず歯抜けになっていたりして残念な思いをしました。
- 661 :名無しさん@お腹いっぱい。:2015/12/14(月) 22:46:11.88 ID:6tGKNCvD0.net
- 動的にページが生成されるから、データが大量になるよな
- 662 :名無しさん@お腹いっぱい。:2016/01/11(月) 18:47:22.66 ID:yIrp54MT0.net
- >>657のパッチ(バイナリ書換えのみ)が別のバグ作ってたことに
今更気づいたので修正済みのパッチ貼っとく
(GetHTMLW 8.3.0)
0040FF64 83F8 00 CMP EAX,0
0040FF67 74 38 JE SHORT GETHTMLW.0040FFA1
0040FF69 8A03 MOV AL,BYTE PTR DS:[EBX]
0040FF6B 90 NOP
0040FF6C 90 NOP
0040FF6D 90 NOP
(exeファイル上では-0x400A00;00F564-00F56Dの範囲)
(GetHTMLW 5.3.1)
004089B4 83F8 00 CMP EAX,0
004089B7 74 38 JE SHORT gethtml.004089F1
004089B9 8A03 MOV AL,BYTE PTR DS:[EBX]
004089BB 90 NOP
004089BC 90 NOP
004089BD 90 NOP
(exeファイル上では-0x400A00;007FB4-007FBDの範囲)
- 663 :名無しさん@お腹いっぱい。:2016/01/22(金) 16:47:20.82 ID:Ej+GshLN0.net
- ハーメルンを取り込めるソフトないかな?
- 664 :名無しさん@お腹いっぱい。:2016/01/22(金) 16:49:06.73 ID:D+wPDphN0.net
- ありますん!
- 665 :名無しさん@お腹いっぱい。:2016/01/22(金) 17:04:36.04 ID:ewi1rt/Q0.net
- あの投稿サイトなら、気に入った作品をお気に入りに入れて、一括表示したのをファイル名に日付込みで保存したほうが確実だし管理しやすいわ
なお、リンクを右クリックしてリンク先を保存、だと、保存失敗することがある
- 666 :名無しさん@お腹いっぱい。:2016/02/01(月) 17:49:03.62 ID:gsi73ib40.net
- 東京ローダーなるものがあるが、これは果たして問題ないのだろうか??
動画ダウンロードソフトになるが、数年経ち、数万人が使っているというのに情報がない。
使えるソフトならば情報がないほうが不自然だが、
それでいて評判が悪いという話も聞かない。
ウイルスだというものや、安全だというものは耳にするが、具体的な内容はどちらもない。
ないない尽しでよくわからないソフトだ。Adobe Airのだが、これは果たして使えるダウンロードソフトなのだろうか。
- 667 :名無しさん@お腹いっぱい。:2016/03/04(金) 08:16:51.90 ID:H8nzEw4i0.net
- ハーメルンが常時SSL化になって巡集やGetHTMLで取り込めなくなったんだけど
この状態で取り込めるソフト無い?
- 668 :名無しさん@お腹いっぱい。:2016/03/07(月) 21:33:23.26 ID:iFNTWIIk0.net
- wgetで
ttp://pentan.info/server/linux/wget_error_ssl.html
- 669 :名無しさん@お腹いっぱい。:2016/03/12(土) 17:14:26.69 ID:TLIZAu0l0.net
- TBSオンデマンドをダウンロードするのはどうしたらいいんだろう?
無料放送中だから違法にはならないと思う。
http://www.tbs.co.jp/muryou-douga/smp/never-let-me-go/009.html
- 670 :名無しさん@お腹いっぱい。:2016/03/13(日) 06:08:38.80 ID:CuSjab960.net
- 【DL】動画の保存方法総合スレ【保存】part24 [無断転載禁止]©2ch.net
http://potato.2ch.net/test/read.cgi/streaming/1449473346/
- 671 :名無しさん@お腹いっぱい。:2016/03/13(日) 06:21:15.88 ID:DclDScKY0.net
- >>670
ありがとう!
- 672 :名無しさん@お腹いっぱい。:2016/03/13(日) 06:22:49.11 ID:DclDScKY0.net
- >>670
ごめん、Youtubeじゃないんだ。
それにスレが落ちてるみたい。
- 673 :名無しさん@お腹いっぱい。:2016/04/09(土) 05:19:40.75 ID:e3wpWblj0.net
- Windows10(home 64bit)で使えるいいダウンローダーないかな?
前のPCで使ってたIrvineみたいなリジューム機能のあるやつ
突然前のPC壊れて新しいの買ったけど調べたら
Irvineは7までしか対応してないんだよなぁ・・・・・・
- 674 :名無しさん@お腹いっぱい。:2016/04/18(月) 20:32:26.68 ID:mvqqjHuJ0.net
- >>673
有料でも良いなら、Internet Download Managerはどうかな?
https://www.internetdownloadmanager.com
リジューム機能もあるし、ファイルの分割ダウンロードをするので、ダウンロード速度が驚異的に早い。
Windows10にも対応していみたいだよ。
- 675 :名無しさん@お腹いっぱい。:2016/05/27(金) 12:30:14.11 ID:KuWnDvU40.net
- 巡集とHTTRACK、どっちにしようか悩むわぁー
- 676 :名無しさん@お腹いっぱい。:2016/05/27(金) 16:05:49.10 ID:EXP4nyrp0.net
- >>675
今、Httrack使い始めたけどいい感じ。スクリプトもしっかり処理してくれる。
ただ、ID認証が標準の機能では弾かれるので困ってる。
いろんなの試したけどホント完全なものってないね。
有料でもいいから、出してほしい。
- 677 :名無しさん@お腹いっぱい。:2016/06/04(土) 08:23:42.85 ID:MrNt3Pin0.net
- FirefoxのアドオンDownloadHelperを使ってるがこのごろYouTubeでさえ
ダウンロード出来ないときがある、Firefoxと愛称が良いダウンローダーないですか?
- 678 :名無しさん@お腹いっぱい。:2016/06/17(金) 16:42:03.83 ID:3bWsLJSE0.net
- WEBBOXというの使ってみたんだけど
FC2のサイト保存だけいないね
エラーになってどっか飛ばされてもとにもどる
なんだこれ
- 679 :名無しさん@お腹いっぱい。:2016/08/10(水) 16:21:37.70 ID:P/MwGFZI0.net
- Helperが糞ダサくなったしね
- 680 :名無しさん@お腹いっぱい。:2016/08/28(日) 19:53:07.99 ID:yppS+Hfg0.net
- 他人のツイログを丸ごと保存したいんですが、おすすめのソフトとかありますか?
- 681 :名無しさん@お腹いっぱい。:2016/08/31(水) 15:31:36.70 ID:N3wIesmL0.net
- とある学校のサイトの授業動画をダウンロードしたいんだけど、
どうしても複数ファイルに分割されてしまう。
おそらくm2tsって形式だと思うんだけど、まとめて1ファイルもしくは
一式を一度にダウンロードする方法ってないかな?
一度ダウンロードしておけばスマホで出先で勉強できるんだけど、
毎回アクセスするとパケットがすぐに上限に達してしまう。
なんとかならないかな?
- 682 :名無しさん@お腹いっぱい。:2016/08/31(水) 15:35:15.88 ID:N3wIesmL0.net
- >>681
m3u8だった。
- 683 :名無しさん@お腹いっぱい。:2016/08/31(水) 19:25:13.20 ID:FsXAU5t30.net
- >>681
OBS
- 684 :名無しさん@お腹いっぱい。:2016/08/31(水) 21:45:16.22 ID:N3wIesmL0.net
- >>683
OBSって配信ソフトじゃないよね?
何の略??
- 685 :名無しさん@お腹いっぱい。:2016/09/01(木) 09:25:08.59 ID:dlF7Lhlk0.net
- m3u8は動画ファイルではない
- 686 :680:2016/09/01(木) 18:32:24.60 ID:YK3BgmXO0.net
- 誰か助けてつかあさい(´・ω・`)
- 687 :名無しさん@お腹いっぱい。:2016/09/02(金) 12:58:35.56 ID:kPzHxTOt0.net
- >>684
馬鹿には無理
- 688 :名無しさん@お腹いっぱい。:2016/09/02(金) 14:34:30.24 ID:RFLIKJAx0.net
- >>680
一番無難なのは、ツイログではなくTweenで他人のツイートを手操作で最大限表示した後に
(Twitter側の都合により3200件までという制限があるけど)別途.tsvテキスト形式で保存する事
だと思う。
自分のツイートなら、Twitter側の標準機能で保存したのを
そのままFTPソフトで適当なWebスペースに丸ごとアップロードするだけで
Webページとして公開できるけどな。
- 689 :名無しさん@お腹いっぱい。:2016/09/02(金) 18:29:47.14 ID:kJeZJ2GI0.net
- >>688
言い忘れがあってすいません
その人ツイログは残ってるんですけどツイッターは消えてるんですよね・・・
- 690 :名無しさん@お腹いっぱい。:2016/09/02(金) 19:47:47.42 ID:RFLIKJAx0.net
- >689
ならば時間がかかるけど適当なPDF作成ソフトで保存する程度で我慢するしかないのでは?
AcrobatやpdfFactoryなどを使えば、例えば計15ページ分の記事なら15回分の操作で1ファイルに全ページ保存できるよ。
俺自身はAcrobat11を愛用してるが、ツイログの保存は未だやった事ないから実際どんな具合なのかは何とも言えんが。
- 691 :名無しさん@お腹いっぱい。:2016/09/03(土) 11:53:47.49 ID:fDYi/RnN0.net
- うーん巡集とかでは無理ですかね・・・
- 692 :名無しさん@お腹いっぱい。:2016/09/03(土) 12:06:49.97 ID:8Ijb08g30.net
- 既に知ってるフリーソフトがあるなら、まず自分で試せよ(w
- 693 :名無しさん@お腹いっぱい。:2016/09/03(土) 18:43:26.54 ID:7EzqA/Cq0.net
- >>691
tweepy
- 694 :名無しさん@お腹いっぱい。:2016/09/04(日) 10:29:47.78 ID:B7EZkThQ0.net
- >>692
いや巡集は試したんですけど駄目でしたw
設定はよくわからないんでほぼいじってないですけどね
>>693
プログラムはわからないんですけど一応方法はあるんですね
貴重な情報ありがとうございます
- 695 :名無しさん@お腹いっぱい。:2016/09/12(月) 18:57:12.45 ID:jBaGhiIO0.net
- http://27.gigafile.nu/0919-g4579e7968ede61a87580460378b312e5
- 696 :名無しさん@お腹いっぱい。:2016/09/17(土) 16:52:08.03 ID:r3o7LKS10.net
- 小説家になろうの小説をWeboxで保存したいのですが
年齢制限のある小説は年齢確認のページが文字化けして保存できません
何度か試して一度だけ冒頭の数ページが奇跡的に保存出来ましたが、その後やはり失敗してしまいます
文字化けせずに年齢確認のページが保存されたときはJavaScriptが有効ではありませんという記述がありました
数年前は保存が出来たのですが変化があったのでしょうか
また無理であれば代替えソフトも検討しています
どうかお知恵をお貸しください
Windows vista ブラウザはfirefox使用です
- 697 :名無しさん@お腹いっぱい。:2016/12/17(土) 21:32:20.24 ID:nqXndt+20.net
- 开放分类:武将
吉田孝太赖(1493-不详),长宗我部家臣,后名周孝。
编辑摘要
画像长宗我部家臣,后名周孝。
人物简介
作为长宗我部首席家老辅佐了长宗我部国亲、长宗我部元亲两代主公。
为国亲之股肱。他智勇双全,即可施展谋略,又可冲锋陷阵,与其弟重后一道,为扩大主家的势力做出了重大贡献。
重要作用
娶长宗我部国亲的妹妹为正室,稳住了吉田氏在长宗我部家中的地位。
- 698 :名無しさん@お腹いっぱい。:2017/02/25(土) 04:03:55.90 ID:RsaAC9TT0.net
- DownloadHelperを使ってmkvという形式のファイルをダウンロードしたら
左上にQコードみたいのが付いてしまったんですが、これが付かない方法を分かる方はいますか?
英語でメッセージが出たので翻訳をしたんですがどうすればいいのか結局分かりませんでした
- 699 :名無しさん@お腹いっぱい。:2017/09/30(土) 23:03:27.55 ID:agku6onL0.net
- 昔ダウンロードしたソフトがあって久しぶりに使ってみた。だが、当時とだいぶ状況が違っていた。
なんといってもサイトがでかい。HDが安くなったせいか中には100万枚画像があると豪語するサイトもある。
こんなのをまるごとDLしてたらとんでもない時間がかかる。たとえDLしたとしても100万枚も見切れない。
DL開始してもえんえんとフォルダを作るばかりでなかなか画像のDLに入らないケースもある。やはり設定で画像ファイルだけDLとか選べるようにした方がいい。
あと、サイトの構造をよく解析して、どういう手順でどこをDLするか事前に計画をたてる必要ががありそう。
- 700 :名無しさん@お腹いっぱい。:2017/10/01(日) 00:00:09.64 ID:rDM94hit0.net
- 昔〜ありそう。
まで読んだ
- 701 :名無しさん@お腹いっぱい。:2017/11/12(日) 09:42:57.33 ID:oix9O1sX0.net
- WeBoXで丸ごと取り込むで エラー フィルタ設定を確認してください
と出るんですがどうすればいいんですか
- 702 :名無しさん@お腹いっぱい。:2017/11/12(日) 10:29:12.31 ID:BaL1zVwg0.net
- 確認してください
- 703 :名無しさん@お腹いっぱい。:2017/11/12(日) 14:01:54.19 ID:oix9O1sX0.net
- どこを確認しますか
- 704 :名無しさん@お腹いっぱい。:2017/11/13(月) 22:05:54.40 ID:ssEB6fkR0.net
- どこを確認しますか
- 705 :名無しさん@お腹いっぱい。:2017/11/14(火) 09:48:08.00 ID:Cyh+eRJ60.net
- 確認してください
- 706 :名無しさん@お腹いっぱい。:2017/11/20(月) 18:12:26.19 ID:L+cN5bZN0.net
- よくわからない
- 707 :名無しさん@お腹いっぱい。:2017/11/20(月) 20:11:19.29 ID:bjWUDFzJ0.net
- 確認してください
- 708 :名無しさん@お腹いっぱい。:2017/11/21(火) 19:06:59.74 ID:TSXtur2t0.net
- HTML5にフル対応したダウンローダーってないかな?
過去に使ってきたアプリはもうかなり前に更新がストップしたままだし、
現役で使ってるwgetも更新はしてるが未だvideoタグとかのHTML5には
未対応だし。
最近いろんなサイトがHTML5化したと思ってたら、不祥事などで突然
閉鎖しちゃった ... なんてことが多いので本当に困る。
- 709 :名無しさん@お腹いっぱい。:2017/11/22(水) 12:45:59.81 ID:qu9WKYow0.net
- ffそのためだけに使ってる
- 710 :名無しさん@お腹いっぱい。:2018/02/05(月) 01:53:56.76 ID:OI6vQNTq0.net
- 900000000000000000000000000000000000000000000
- 711 :名無しさん@お腹いっぱい。:2018/04/07(土) 20:58:38.44 ID:GhwMjQT40.net
-
↓本当に良いのか?わからないけど、とりあえず
WinX YouTube Downloader
ttps://www.winxdvd.com/youtube-downloader/index-jp.htm
5KPlayer
ttps://www.5kplayer.com/index-jp.htm
TokyoLoader
ttps://tokyoloader.com/
Video DownloadHelper
ttps://chrome.google.com/webstore/search/Video%20DownloadHelper?hl=ja
FBDown Video Downloader
Free Video Downloader
Video Download Pro
Video Downloader Pro
- 712 :名無しさん@お腹いっぱい。:2018/05/21(月) 23:29:13.20 ID:XXA+mVbv0.net
- すみません 助けてください
取扱説明書をダウンロードできるサイトから一括でpdfをダウンロードできるソフトや方法があれば教えて下さい。
そのサイトのアドレスは.phpとなっています
https://www.vintageshifi.com/index.php
この様なサイトから一括でダウンロードできますか?
よろしくお願いいたします
- 713 :名無しさん@お腹いっぱい。:2018/06/21(木) 14:58:45.98 ID:hAOgjjko0.net
- GetHTMLWをProxyMode2で使ってWikipedia取得、と思ったら取れてない
他サイトでも取得できないのがあるなあと眺めたら、ひょっとしてSSLサイトは取得できないの?
- 714 :名無しさん@お腹いっぱい。:2018/07/01(日) 14:19:20.56 ID:4o6nMIUG0.net
- LINE LIVEのコメントを直にダウンロードできるソフトはありませんか?
画面の録画ではなくテキストで保存したいのです
よろしくおねがいします
https://live.line.me/channels/62108/broadcast/8733243
- 715 :名無しさん@お腹いっぱい。:2018/09/27(木) 04:48:01.72 ID:QhrJ9BGT0.net
- てすと
- 716 :名無しさん@お腹いっぱい。:2018/11/26(月) 19:52:02.05 ID:HgX0MTQ+0.net
- この手のソフトでなかなか良いの出ないね…
- 717 :名無しさん@お腹いっぱい。:2018/11/26(月) 22:33:51.84 ID:UqzQ9I3r0.net
- wgetで丸ごと、と良く聞くけどなかなかわからん
- 718 :名無しさん@お腹いっぱい。:2018/11/29(木) 19:17:23.14 ID:z9/KVliE0.net
- wgetやってみたけど…どこに保存されてるのか全く見つけられん
- 719 :名無しさん@お腹いっぱい。:2018/11/30(金) 14:11:02.90 ID:23EaTWpR0.net
- wget置いてある所じゃないの?
- 720 :名無しさん@お腹いっぱい。:2018/11/30(金) 17:29:59.77 ID:Tc7w9Eb20.net
- >>716
馬鹿なユーザーが時間を開けずにアクセスしまくって鯖に負荷かける迷惑行為をするからだろ
そういう奴がいるからなかなかソフトを開発する奴が現れない
- 721 :名無しさん@お腹いっぱい。:2018/11/30(金) 19:23:11.82 ID:23EaTWpR0.net
- マルチスレッドで爆速だぜ!とかいうキチガイは昔からいたからなあ
斧なんか複数張っちゃダメってきっちり書いてるけど
まあその手のソフトも接続数を設定で変更できるのはまだ便利に使えるんだけどねえ
- 722 :名無しさん@お腹いっぱい。:2018/11/30(金) 19:32:02.39 ID:gazfU0EG0.net
- wgetやってみたけど、ページはダウンロードできるけどサイト全体は上手くいかない…
Weboxは認識ページは不安定で偶にフィルタ設定しろって出るけど
このフィルタ設定が何かわかる方いますか?
- 723 :名無しさん@お腹いっぱい。:2018/12/03(月) 17:58:25.89 ID:dqum4gYX0.net
- WeBoXはGetHTMLWの代わりにといじってみたけど馴染めなかったな
- 724 :名無しさん@お腹いっぱい。:2018/12/06(木) 02:55:01.84 ID:YtTZWQeM0.net
- >>716
怪しい通信して良いなら幾らでもある
自分で阻止して使えば
- 725 ::2019/10/20(日) 04:35:23 ID:2jmCiTh40.net
- wgetが実行中に停止してしまうんですが、原因を知る方法を、
もしご存知でしたらお教えください。
具体的には、「wget.exe has stopped working」ってwindowsのダイアログが出て
強制終了するしかなくなります。
必ず、バイナリファイルのダウンロードが100%になったと同時に停止し、
そのファイルは0バイトになってます。
- 726 :名無しさん@お腹いっぱい。:2019/10/24(木) 01:41:22.38 ID:BZhK+5ie.net
- >>725 ですが解決したので報告だけ
2008年の古いwget使ったらエラー無しでDL完了しました。
DLに使ったの緒はwin 7です。
自分が引っかかった注意点としては、
このバージョンはexeだけgetすると何故か64bitバージョンが
DLされるのでsetupのexeをuniextractで解凍し、
出てきたDLLとセットでどっかにコピーして使うことです。
exeとdllのバージョン適合は厳密のようでした。
- 727 :名無しさん@お腹いっぱい。:2019/11/07(木) 20:50:33.28 ID:fLmyXcP00.net
- iPad用で使える君ありますか?
- 728 :名無しさん@お腹いっぱい。:2019/11/10(日) 16:59:47.75 ID:PevOCmI50.net
- 4k stogram 超改悪
実質完全有料化
- 729 :名無しさん@お腹いっぱい。:2019/11/21(木) 17:22:40.27 ID:lfhTTYY20.net
- (*´ω`*)
- 730 :名無しさん@お腹いっぱい。:2020/03/03(火) 08:40:40.95 ID:FfsX5X600.net
- 4K Video Downloader
ダウンロード出来んぞ
- 731 :名無しさん@お腹いっぱい。:2020/04/01(水) 15:27:38 ID:P/R9qTCB0.net
- VideoProcもダウンロード出来んぞ
数日前からダウンロードしようとすると<分析失敗>と表示され何度ダウンロードしようとしても失敗してしまいます。
これはなにが原因として考えられるでしょうか?そして対策は何でしょうね?
- 732 :名無しさん@お腹いっぱい。:2020/04/29(水) 11:38:12 ID:AWoQP67n0.net
- >>730
同じく。
失敗する。
- 733 :名無しさん@お腹いっぱい。:2020/04/29(水) 11:38:34 ID:AWoQP67n0.net
- 有料でこれはひどい
- 734 :名無しさん@お腹いっぱい。:2020/04/29(水) 13:23:07 ID:4wFVK7w50.net
- VideoProcはきのうあたりから復活して
またザクザクとダウンロードできるようになった
- 735 :名無しさん@お腹いっぱい。:2020/05/05(火) 12:41:03 ID:Mzkmv/4j0.net
- 4k video downloaderのアカウントごと保存先をまとめて変更する方法ない?
かゆいところに手が届かないんだよなぁ。
- 736 :名無しさん@お腹いっぱい。:2020/05/10(日) 14:29:57.34 ID:9H/5HAbJ0.net
- またVideoProcがダウンロードできなくなった
- 737 :名無しさん@お腹いっぱい。:2020/05/10(日) 14:30:15.24 ID:9H/5HAbJ0.net
- TVの前のみなさんはどうですか?
- 738 :名無しさん@お腹いっぱい。:2020/05/15(金) 10:38:35 ID:k0sYdnPE0.net
- 有料なんだからさっさと対応してほしい
- 739 :名無しさん@お腹いっぱい。:2020/05/15(金) 12:27:34 ID:I5VPP4+t0.net
- VideoProcは2日くらい前から使えるようになってます
TVの前のみんなもそうですよね
- 740 :名無しさん@お腹いっぱい。:2020/05/21(木) 13:37:25 ID:uTM4kigk0.net
- またVideoProcでダウンロードできなくなった。
再開はいつだろう。
こういう不具合さえなければ最高のダウンロードツールなのに。
- 741 :名無しさん@お腹いっぱい。:2020/05/25(月) 10:37:16 ID:iAx5bd/Z0.net
- >>740のアプリは5日ぶりに復旧した。
使えてる間はダウンロードの神ツール。
- 742 :名無しさん@お腹いっぱい。:2020/06/18(木) 12:16:08.05 ID:+pp69d030.net
- またVideoProcでダウンロードできなくなった。
再開はいつだろう。
こういう不具合さえなければ最高のダウンロードツールなのに。
- 743 :名無しさん@お腹いっぱい。:2020/06/18(木) 20:24:30.85 ID:+pp69d030.net
- ちなみに、
・VideoProc
・winx youtube downloader
どちらもダウンロード界の最高神ツール。
なぜみんなもっと話題にならないの?
まさかこれよりいいツールなんてあるわけないし。
- 744 :名無しさん@お腹いっぱい。:2020/06/20(土) 12:30:54.17 ID:55ZvSynE0.net
- 今日またVideoProcでダウンロードできなくなってる。
再開はいつだろう。
- 745 :名無しさん@お腹いっぱい。:2020/06/27(土) 11:52:25.08 ID:A4NX8Chs0.net
- 6/20の障害はすぐ復旧したけど、
今日6/27またVideoProcでダウンロードできなくなってないか?
- 746 :名無しさん@お腹いっぱい。:2020/07/26(日) 20:27:57.93 ID:WA1pLnvu0.net
- 4k videodownloaderまたダウンロードできなくなってない?ようつべ。
- 747 :名無しさん@お腹いっぱい。:2020/07/31(金) 14:15:29.61 ID:iJWWx28K0.net
- 7/28ころからまたVideoProcでダウンロードできなくなった。
再開はいつだろう。
こういう不具合さえなければ最高のダウンロードツールなのに。
総レス数 747
193 KB
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200