2ちゃんねる スマホ用 ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【超解像】画像拡大ソフト総合スレ2【waifu2x】

1 :名無しさん@お腹いっぱい。(アウアウ Sa2a-NyIq):2016/05/10(火) 11:28:05.20 ID:h2o6wyXCa.net
画像を人工知能(Neural Network)を利用して拡大、あるいはノイズ除去するソフトウェアの話題を総合的に扱うスレです。
本来の用途は静止画が対象ですが動画のアプコン処理に関する話題もOKです。
ただし動画編集ソフトの使い方の部分の話は各ソフトのスレに行って下さい。

--主なソフト--
・waifu2x
本家Webサービス
http://waifu2x.udp.jp/

・waifu2x概要:二次元画像を拡大したいと思ったことはありませんか? (waifu2x作者氏のブログ)
http://ultraist.hatenablog.com/entry/2015/05/17/183436

・waifu2xとその派生ソフト一覧
※リンクがNGワードに!

・waifu2xのベンチマーク結果まとめ - Togetter
http://togetter.com/li/831437

・無料で二次元画像を人工知能が補完してハイクオリティで1.6倍/2倍に拡大できる「waifu2x」 (gigazinの記事)
http://gigazine.net/news/20150519-waifu2x/

・Otaku ワールドへようこそ![212]嫁を拡大する人工知能/GrowHair (日刊デジタルクリエイターズの記事)
※従来の拡大手法とwaifu2x、SRCNNの違いについての丁寧な解説記事
http://blog.dgcr.com/mt/dgcr/archives/20150605140100.html

・NeuronDoubler
人工知能超解像プログラム NeuronDoubler
http://loggialogic.blogspot.jp/2012/06/neurondoubler.html
VIPQ2_EXTDAT: checked:vvvvv:1000:512:----: EXT was configured

2 :名無しさん@お腹いっぱい。 (アウアウ Sa2a-NyIq):2016/05/10(火) 11:29:30.45 ID:1d2KsrB6a.net
MSE・PSNRによる画像拡大アルゴリズム10種・ソフト8種、計14パターンの画質評価結果
http://loggialogic.blogspot.jp/2015/09/msepsnr10814.html

・waifu2xとその派生ソフト一覧
http://kourindrug.sa kura.ne.jp/waifu2x.html

Q. waifu2xの派生バージョン多いけどどれがオススメ?
A. Windows 64bitかつGPUがnVidia製なら、Waifu2x-caffe。それ以外の環境なら、tanakamura版あたりを試すと良い。
2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。


・歴代スレ
waifu2x [転載禁止]2ch.net
http://anago.2ch.net/test/read.cgi/software/1433637613/

【超解像】画像拡大ソフト総合スレ1【waifu2x】 [転載禁止]2ch.net
http://potato.2ch.net/test/read.cgi/software/1447218757/

3 :名無しさん@お腹いっぱい。 (ワッチョイ bd64-kevm):2016/05/10(火) 11:57:50.59 ID:eninfPPB0.net
いちおつ

4 :名無しさん@お腹いっぱい。 (ワッチョイ 9c42-BRmI):2016/05/10(火) 12:11:54.14 ID:aFfpXB7Y0.net
          旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
           旦 旦 旦 旦 旦
          旦 旦 旦 旦 旦
.   ∧_∧   旦 旦 旦 旦 旦
   ( ´・ω・ ).  旦 旦 旦 旦 旦
.   /ヽ○==○ 旦 旦 旦 旦 旦
  /  ||_ |_ 旦 旦 旦 旦 旦
  し' ̄(_))  ̄(_))  ̄(_))  ̄(_)) 

5 :名無しさん@お腹いっぱい。 (ワッチョイ fa39-RvG2):2016/05/10(火) 12:52:09.56 ID:Fd7DWOdg0.net
>>2
> 2015/11/11現在tanakamura版はアルファチャンネルを上手く処理できないようなので、その場合はWaifu2x-caffeを使うと良い。

これは古い情報で、20151130以降のバージョンならアルファ対応してる。

6 :名無しさん@お腹いっぱい。 (ワッチョイ 9fe2-5iF2):2016/05/10(火) 13:32:05.47 ID:6mjJMeGF0.net
>>1
>>5
cppの0101入れてFireGL環境でqtのGUIつこうてますけれど
元画にあるPNGアルファチャンネル消えて色があふれたみたいな画になるよ
使い方が悪いのか見当がつかない

7 :名無しさん@お腹いっぱい。 (ワッチョイ 1550-7Olf):2016/05/10(火) 13:55:21.96 ID:NxSJJ6AA0.net
ここは暴言多いんで、ワッチョイありでいいわ

8 :名無しさん@お腹いっぱい。 (ワッチョイW 88e2-hIBt):2016/05/10(火) 13:57:29.01 ID:Zw+WHUPo0.net
おつおつ

9 :名無しさん@お腹いっぱい。 (ワッチョイW 3383-10y/):2016/05/10(火) 14:49:07.77 ID:O19W+R3l0.net
こっちが本スレかな?


10 :名無しさん@お腹いっぱい。 (ワッチョイ 88e2-pJm1):2016/05/10(火) 15:11:00.81 ID:6o3hZDzu0.net
スレ立て乙

11 :名無しさん@お腹いっぱい。 (ワッチョイ b55d-7Olf):2016/05/10(火) 17:42:07.13 ID:0/i3y4sK0.net
ワッチョイで特に必要性薄くなったけど念のため・・・
オススメ追加NGワード(正規表現)の手順 (改訂版)

1.[ツール]→[設定]→[機能]→[あぼーん]→[NGEx]→テキストボックス内に適当な名前(例:caff荒らし)を入力して→[追加]

2.次に開くウィンドウで、 以下の様に設定する。
   NGWORDのタイプを「正規(含む)」に変更し、そしてキーワードに以下をコピペ(予め1行にすること)
(は([  \.]+)?み([  \.]+)?出|V([  \.]+)?G([  \.]+)?A|1([  \.]+)?0([  \.]+)?2([  \.]+)?4|7([  \.]+)?6([  \.]+)?8|
1([  \.]+)?9([  \.]+)?2([  \.]+)?0|6([  \.]+)?4([  \.]+)?0|M([  \.]+)?D([  \.]+)?.?([  \.]+)?5([  \.]+)?5([  \.]+)?0([  \.]+)?0([  \.]+)?|
L([  \.]+)?7([  \.]+)?9([  \.]+)?7|解([  \.]+)?像([  \.]+)?度([  \.]+)?|糞|雑([  \.]+)?魚|ク([  \.]+)?ソ|ザ([  \.]+)?コ|客|干([  \.]+)?[さしすせ])

3.左下のリストボックスを「透明あぼ〜ん」に設定。[OK]を押すれば新規レスからあぼ−んされるので取り敢えず終わり。
   既存のレスも消去したいなら4.も実行。

4.[スレッド]→[このログを削除]して、[ファイル]→[最近閉じたスレ]から削除したスレを開き直す。
   レス番号が歯抜けになっているはず。

2.のキーワードはその動向を見ながら変更追加して下さい。中には関係ないのも巻き込むので注意ですね。
正規表現をもう少し駆使すればかなりの精度でNGできます。ただ上記とその変更でも十分活用出来るでしょう。

12 :名無しさん@お腹いっぱい。 (ワッチョイ fa39-RvG2):2016/05/10(火) 18:18:00.24 ID:Fd7DWOdg0.net
>>6
qtのGUIって↓のやつだよね?
https://github.com/khws4v1/waifu2x-converter-qt

試しに使ってみたけどアルファ保持されたよ。
アルファ消えるのはもしかして古いバイナリを使うように設定してるとかかな?

13 :名無しさん@お腹いっぱい。 (スプー Sdb8-uAmq):2016/05/10(火) 18:19:52.36 ID:pNhD28mzd.net
ワッチョイのおかげでレトロガイジが駆逐されたみたいやな

14 :名無しさん@お腹いっぱい。 (ワッチョイ 9c42-BRmI):2016/05/10(火) 18:42:31.00 ID:PIjk1rDx0.net
レトロガイジって何ですか?

15 :名無しさん@お腹いっぱい。 (ワッチョイ ff0f-lMTc):2016/05/10(火) 18:48:05.87 ID:Lz+ZkU790.net
「レトロなキチガイ児」のことじゃね?知らんけど。

16 :名無しさん@お腹いっぱい。 (ワッチョイ 9fe2-5iF2):2016/05/10(火) 19:40:07.52 ID:6mjJMeGF0.net
>>12
お手数かけました情報ありがとう
そちらで保持されておられるのなら自分の方法が間違ってるに違いないと確信した
qt側の設定で最新のcppの実行ファイル指定はできていたので何か間違いがないか
手順を再確認してみる

17 :名無しさん@お腹いっぱい。 (ワッチョイ be6d-xPRS):2016/05/10(火) 19:52:07.36 ID:0vfKWyMS0.net
昔の栄光にすがってる、哀れな独りよがりのピエロのことだよ。

18 :名無しさん@お腹いっぱい。 (ワッチョイ 9fe2-5iF2):2016/05/10(火) 20:02:00.70 ID:6mjJMeGF0.net
>>12
試行した結果
自作PNG→OK
webで拾ってきた透過PNG→NGなのもある
作者さんが注意書きされておられた
bKGDに変な値入ってると変な色が出る可能性はある。
上記に該当する画像だと判断できました
アプリで開いて透過PNGで保存し直しwaifuするとOKでした
いまさらな話題で失礼しました

19 :名無しさん@お腹いっぱい。 (ワッチョイ bd64-kevm):2016/05/10(火) 23:59:53.00 ID:eninfPPB0.net
新しい機器が買えないニート

20 :名無しさん@お腹いっぱい。 (アウアウ Sa85-Xnmr):2016/05/11(水) 15:04:46.70 ID:JWRjx2E2a.net
一応連絡です(作者の人ではないのですが)
waifu2x-c/c with Batchfile and HTA-GUIをご利用中の方へ

・画像アップロードでウェブサイトを乗っ取られる攻撃が進行中--「ImageMagick」脆弱性
http://japan.zdnet.com/article/35082361/
というニュースが少し前より出ております。
念のため、最新のImageMagickに更新されておいた方がいいかと思います。

・ImageMagickダウンロードページ
http://www.imagemagick.org/script/binary-releases.php#windows
(種類がいろいろあるようですが、ImageMagick-7.0.1-3-Q16-x64-dll.exeでよいかと思います。)

なお更新するにあたって、事前に古いバージョンを手動削除し、念のためCCleaner等できれいにしてから最新版をインストールされた方がいいと思います。
(手動で削除しないと古いバージョンが残ったままになってしまうため)

・インストール時の注意点
途中で「Select Additional Tasks」の画面が表示されたら

上から2番目
Add application directory to your system path

1番下
Install ImageMagickObject OLE Control for VBscript,Visual Basic,and WSH

この2点に必ずチェックが入った状態にして先に進めること。

21 :名無しさん@お腹いっぱい。 (アウアウ Sa85-Xnmr):2016/05/11(水) 15:20:21.00 ID:JWRjx2E2a.net
ちなみに、先ほどImageMagickを更新してから久々にwaifu2x-c/c with Batchfile and HTA-GUIを起動して使ってみましたが、
やはり私のPCでは利用できないままなのは変わらないようです。
(起動時にエラーは出るし、ファイルの選択すらできない。)

22 :名無しさん@お腹いっぱい。 (アウアウ Saef-Wax8):2016/05/14(土) 10:55:12.05 ID:CHSZ183Na.net
前スレで画像のbit深度について書いていた件なんだけど、いろいろ調べていたら
・ImageMagickのビット深度と画質劣化
http://mikio.hatenablog.com/entry/2016/02/12/220435
という興味深いページに行き当たった。

曰く、「ImageMagick 7からはHDRIがデフォルトになる」そうです。
※HDRIとは、「内部表現を浮動小数点数で持つ機能」のことだそうです。
先日>>20にてアップデート推奨と書きましたが、現在のバージョンが7.0.1-3ですので、おそらく対応しているものかと思います。

ImageMagick 7以降を使うと旧バージョンに比べて画像フォーマットの変換時の劣化を抑えられるかも。
旧バージョンを利用中の方は更新されておく方がいいと思います。

ところでもともと調べていたのは「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」を探すことが目的だったのですが、案外ないものですね。
(Photoshop関連の情報はたくさん出てくるのですが)
ImageMagickだとできるかなと調べているのですが、よくわからんです。
誰かご存知でしたらよろしくです。

23 :名無しさん@お腹いっぱい。 (アウアウ Saef-Wax8):2016/05/14(土) 11:04:35.89 ID:CHSZ183Na.net
HDRIについてさらなる考察をされている件も興味深いので合わせてどうぞ
(HDRIかつ16bit、あるいは32bit、64bitのケースなど)

・ImageMagickのビット深度と画質劣化 その2
http://mikio.hatenablog.com/entry/2016/02/15/221433

24 :名無しさん@お腹いっぱい。 (ワッチョイ a744-Wsqh):2016/05/14(土) 11:13:20.68 ID:GNuM19aQ0.net
>「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」
綺麗に、ってのは、オーディオで言うところのアップサンプリングみたいなのを考えてる?

解像度を上げつつ、補完するピクセルの色を16bitでしか
表現できない色で表現する、ならわかるけど
解像度を上げないでそのまま16bit化するのはただ
ファイル容量増えるだけで何も変わらないよ

25 :名無しさん@お腹いっぱい。 (アウアウ Saef-Wax8):2016/05/14(土) 11:44:34.95 ID:CHSZ183Na.net
>>24
「オーディオで言うところのアップサンプリングみたいなの」ということになるのかどうかわかりませんが、
各色16bitに変換する際にトーンジャンプが起きないように補完しつつ変換するような感じの動作をするものを探しています。

26 :名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb):2016/05/14(土) 12:20:35.15 ID:CHSZ183Na.net
表現が間違っているかも。
元画像に含まれるトーンジャンプ(バンディング)を滑らかに補正しつつ、bit深度を拡張、というべきかも。
つまり元画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので、
そのまま拡大するのではなく、あらかじめ階調をできる限り滑らかに補正しておいてからwaifu2xに渡す、というような前準備を考えています。
等倍サイズでは目立たなくとも、拡大するとトーンジャンプは目立つことが多いので。

27 :名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb):2016/05/14(土) 12:29:11.32 ID:CHSZ183Na.net
可能性の話になるけれど、ディープラーニングを利用したノイズ除去とは別にやの、トーンジャンプ除去モードとかbit深度拡張モードがあればいいのか?
(等倍での出力も対応)

ノイズ除去も目的に応じてより細かいモードがあるといいのかも。
ブロックノイズ軽減モードとか、モスキートノイズ軽減モード、カラーノイズ除去モード、などなど。

28 :名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb):2016/05/14(土) 18:50:49.16 ID:CHSZ183Na.net
思いつきのメモ
画像を圧縮することによって発生する問題(ブロックノイズとかトーンジャンプとか)を、圧縮前はこうだっただろうという想定で復元する「超復元」。
さすがにそんな都合のいいものは無理?

29 :名無しさん@お腹いっぱい。 (ワッチョイ 3720-Wsqh):2016/05/14(土) 19:20:53.65 ID:0zj3O/Km0.net
>>28
1.00000001倍に拡大して自動判別してノイズ除去で良いんじゃね

30 :名無しさん@お腹いっぱい。 (ワッチョイ 077c-yliF):2016/05/14(土) 21:32:59.96 ID:Nq8DfokX0.net
>>28
トーンジャンプ/ブロックノイズした絵を入力・解除された絵を出力するように学習させれば可能かも

31 :名無しさん@お腹いっぱい。 (ワッチョイ afe1-Jrc9):2016/05/15(日) 04:52:32.51 ID:a+hZy1+X0.net
>画像が高圧縮された画像であればあるほどトーンジャンプが発生している確率が高いので
トーンジャンプ(バンディング) が判るような圧縮画像じゃ、8bit諧調ですらないのでは?ってレベルの画像なんじゃないだろうか・・・

32 :名無しさん@お腹いっぱい。 (ワッチョイ 5336-Wsqh):2016/05/16(月) 15:12:06.66 ID:N/rtYCXM0.net
処理時間半分以下になるバージョンの公開が待ち遠しい

33 :名無しさん@お腹いっぱい。 (ワッチョイ 37b5-Wsqh):2016/05/16(月) 16:35:15.65 ID:B4gPzHV00.net
フィギュアの写真をアニメ調にしてくれる機能があったらなぁ。

34 :名無しさん@お腹いっぱい。 (スプー Sd1f-jhWs):2016/05/16(月) 18:25:08.61 ID:5Rev/Kkkd.net
新バージョン待ち遠しいな

35 :名無しさん@お腹いっぱい。 (ワッチョイ b7d2-J8dZ):2016/05/16(月) 19:44:29.81 ID:7A45SCwf0.net
新モデルはupconvブランチに置いてますけど
ピクセルアートなどでひどいアーティファクトが出てることに気付いたのでまだ変更します。
時間半分以下でイラストでのベンチマークも上ではありますけど
以前より悪くなるパターンもあってあやしくなってきました。

36 :名無しさん@お腹いっぱい。 (ワッチョイW 374d-jhWs):2016/05/16(月) 21:18:27.97 ID:GoJkJQIl0.net
処理時間よりどれくらい綺麗に処理出来るようになったかが気になるな
特に前スレで書かれてたノイズを使ったときの溶けた感じや輪郭線など

とにかく作者さん頑張って

37 :名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb):2016/05/17(火) 08:12:24.79 ID:CE801I46a.net
モデルデータなんだけど、現状はアニメ用とか写真用とかに分かれていて利用者が選択するやり方になっているけど、
絵柄の部分ごとに自動的に切り替えて適用させることはできないものなんだろうか?
(切り替える判断をディープラーニングでさせる)
・階調情報が少ない面が一定以上ある部分→アニメモデル
・輪郭線が複雑に構成されている部分→Yモデル
・それ以外→RGBモデル
みたいな。

38 :名無しさん@お腹いっぱい。 (アウアウ Saef-E7lb):2016/05/17(火) 11:39:19.21 ID:CE801I46a.net
>>35
ピクセルアートはコントラスト比が高い絵柄が多いから、現状のwaifu2xのやり方だと溶ける症状が出やすいかもしれませんね。
どうも溶ける症状が出やすいところって、コントラスト比の高い部分が隣接しているような場所でおこりやすい気がしますね。
(だから結果として輪郭周辺部とかで目につきやすいのかも)

コントラスト比が高い部分とコントラスト比の低い部分を同じ割合で強調してしまっているのかな?
元画像のコントラスト比が高くなるほど、強調する度合いを低下させておくような仕掛が必要だと思います。

39 :名無しさん@お腹いっぱい。 (スプー Sd1f-jhWs):2016/05/18(水) 21:27:07.33 ID:wnzNAYYTd.net
新バージョンでは輪郭線が綺麗になる?
SDからFHDにアップコンバートするとこんな感じになるんだよね…
http://i.imgur.com/GhxuUH3.png

40 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/19(木) 11:36:41.13 ID:snBFEXtFa.net
>>39
みんなそれを期待していると言っても過言ではないのけど、実際問題としては相当難しいんだろうなとも思う。
というのは、人間の目には輪郭とは「一本の繋がった線」として認識しているので、目に見えにくいところが少しくらい途切れていても
脳内で補完される(これを「アモーダル効果」とかいうそうです)仕組みがあるけれど、コンピューターに勝手にそのような効果が備わっているわけではないので、
輪郭線の細部の「ムラ」になっていたり、ノイズまみれになっているところを、いかに連続した線としてきれいに見せる=すなわち「連続した線として認識できる」
かが鍵になるのだと思う。
つまり、現状のwaifu2xは細かい点ごとを処理している状態であるところを、あらかじめディープラーニングを使って「この連続成分は線なのか?」ということを
事前に認識する前処理を施したうえで、「線成分(=連続成分)」と認識した場所と、そうではないところで処理方法を切り替えることが必要なのではないかと個人的に
思ってはいるのだけど(連続成分については超解像効果をオフ、もしくは弱めて適用)、作者様、そんな前処理&処理方法の切り替えはできないものでしょうか?

41 :名無しさん@お腹いっぱい。 (ワッチョイ bcd2-SHNT):2016/05/19(木) 11:54:46.91 ID:p48VMaQS0.net
現状が出力1px出すのにその周りの7x7pxがどうなっているかで出力を決めているので
その範囲でそれが線か点か平面かみたいなところは判定できていると思います
新モデルはこれが12x12に広がるのでもう少し複雑なパターンも分かるのではと思うけど
フィルタが大きくなるとそれだけ無関係なピクセルから影響を受けやすくもなるので
アーティファクトも出やすくなってしまう

42 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/19(木) 12:34:06.20 ID:snBFEXtFa.net
>>41
参照範囲を拡張されるのですか?
それはいいですね。
アーティファクトについては元画像が圧縮画像である場合に発生しやすいかと思いますので、現在装備しているノイズ除去とは別に、
アーティファクトの影響が出やすそうな圧縮ノイズだけを事前に除去するようなモードをつけておくことで対処することは難しいのでしょうか?
(>>28で書いたような感じのブロックノイズとかトーンジャンプに加え、輪郭周辺部に出やすいモスキートノイズなどを個別にオン・オフできるといいかと思いますが)

43 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/19(木) 12:42:22.08 ID:snBFEXtFa.net
作者様のTwitterを見たところ、「Imager::AnimeFace」なる輪郭検出に必要になりそうなソフトウェアをすでに作られていたご様子。
このソフトの技術で認識した輪郭部だけに適用する「輪郭ノイズ除去フィルター」なんて組み込めないものですかね?

44 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/19(木) 12:44:38.11 ID:snBFEXtFa.net
こんなソフトもあるようですね。
・JPEGノイズ除去フィルタ
http://www.webtech.co.jp/help/ja/optpixlabs/jpeg_noise_filter/

45 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/19(木) 12:49:58.03 ID:snBFEXtFa.net
人のいるところでは開かないほうがいいページだけれども、参考にはなりそうなところ。

Googleで「輪郭ノイズ除去フィルター」で検索すると、「プロカメラマンのPhotoshop女性写真補正術」なるところが表示されますのでそこに出てきます。

人前では見るなよ!見るなよ!

46 :名無しさん@お腹いっぱい。 (スプー Sd78-lZ/E):2016/05/19(木) 12:51:00.20 ID:Jy9TZu3Bd.net
>>40
分かりやすい説明ありがとう
やっぱりみんなもそこ気になってるんだね
輪郭線も気になるけど、画像みたいな色が違う境界線も新バージョンで改善されると嬉しいな

要望ばかりで申し訳ないが、作者様頑張って下さい

47 :名無しさん@お腹いっぱい。 (ブーイモ MM28-MTTD):2016/05/19(木) 12:57:20.90 ID:0HndFo6fM.net
アニメって原寸でも少しボケ気味だから拡大前に若干縮小するか、シャープかけてからの方が良い結果になることが多い

48 :名無しさん@お腹いっぱい。 (ワッチョイ c991-MYRu):2016/05/24(火) 01:06:43.33 ID:pHT3p8L20.net
waifu2x-c/c with Batchfile and HTA-GUI作者です、ご無沙汰してます

>>20
ありがとうございます。私もこのレスを見て始めて脆弱性のことを知りました...
>>21
申し訳ないです。。。もしよければバッチファイルだけでもご利用ください。

重いのに使ってくださる方がいて嬉しい限りです。
リアルが多忙ですが、tanakmura氏版がLv3に対応した後ぐらいの時期に次版をリリースしようと考えています。
次版は少々軽くなっているはずです。
また、近いうちに選択肢が簡単な(コマンドライン準拠でない)バージョンも用意したいと考えています。
個体差でエラー&起動しない問題の解決にも取り組みたいところです。

49 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/24(火) 09:35:22.04 ID:gUvghq74a.net
>>48
ImageMagickの件については、>>22-23に記述した件もありますので、更新しておいて損はないかと思います。
なお、「各色8bitの画像を各色16bitにきれいに変換できるフリーソフト」の件ですが、どうやらImageMagickにそのような機能があるっぽいのですが、まだよくわからず。
引き続き調査中。
(ImageMagickをGUIで使える汎用性の高いフロントエンド(AviUtlみたいな)ってないのかな?)

50 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/24(火) 10:00:09.81 ID:gUvghq74a.net
ひょっとして8bit→16bitをImageMagickで変換するには

convert input.png -depth 16 output.png

だけでよかった?

51 :名無しさん@お腹いっぱい。 (アウアウ Sa89-di3r):2016/05/24(火) 10:13:01.51 ID:gUvghq74a.net
そんなわけはなかった・・・
引き続き調査。

52 :名無しさん@お腹いっぱい。 (ワッチョイ 2136-xKv1):2016/05/24(火) 17:42:11.99 ID:wmnqMgZB0.net
倍速バージョンがcaffeに採用される日はまだ遠いのでしょうか?

53 :名無しさん@お腹いっぱい。 (ワッチョイ 96e1-G0cz):2016/05/24(火) 18:13:16.41 ID:MHUmioZy0.net
各16bitにしてもグラボやモニタが対応してないと確認できないよーな

54 :名無しさん@お腹いっぱい。 (アウアウ Sa22-ZXL4):2016/05/24(火) 19:22:40.86 ID:65AxGBFja.net
16bitは編集前提だから
まぁ、Radeonの次期モデルから10bit出力対応になるし、モニターも対応モデルが増えていくから無駄にはならん

55 :名無しさん@お腹いっぱい。 (ワッチョイ c66d-2dQw):2016/05/24(火) 20:29:37.48 ID:8l5f+VfM0.net
>>39
これ学習時に縮小するときにジッタ成分としてランダムにサンプリング位置を僅かにずらしたのを学習させれば
ノイズとして巧いこと処理できるようにならないかな
縮小したのをWarpsharpとかランダムシフトでずらして凸凹を再現してもいいけど

56 :名無しさん@お腹いっぱい。 (ワッチョイ 96e1-G0cz):2016/05/24(火) 20:41:22.46 ID:MHUmioZy0.net
>>54
ちゃんとキレーに処理されてたら無駄にならないからいいけど、
いざ確認できるようになってから、誤差拡散ノイズまみれとかになってたら嫌じゃね?

57 :名無しさん@お腹いっぱい。 (ワッチョイ c66d-2dQw):2016/05/24(火) 20:59:08.32 ID:8l5f+VfM0.net
ビット拡張は暗部階調に意味があるんだからガンマカーブやトーンカーブいじって明るくしてやれば確認は出来るでしょ
10bit出力だってDirectXやOpenGLのフルスクリーンで相当昔から出来るがDeepColorのTVでもそのままじゃわからん
Blu-Ray再生でRGBのまま再生したいときにロスが減るという意味がある程度かもしれん

58 :名無しさん@お腹いっぱい。 (ワッチョイW 574d-q9La):2016/05/28(土) 18:13:12.85 ID:VJDl+RrJ0.net
新バージョンはいつ頃になりそうですか?

59 :名無しさん@お腹いっぱい。 (ワッチョイ 3f39-I3Qh):2016/05/29(日) 03:27:38.86 ID:s6BvNCI80.net
rigayaの日記兼メモ帳 技研公開 2016
http://rigaya34589.blog135.fc2.com/blog-entry-788.html

NHKの方でも縮小して拡大、PSNR算出みたいな事するのね

60 :名無しさん@お腹いっぱい。 (ワッチョイ 3f39-I3Qh):2016/05/29(日) 03:40:46.10 ID:s6BvNCI80.net
ムッ、ブログ記事の画像URLのGiken2016_10s.jpgをGiken2016_10.jpgにすると読みやすいのが出るな

61 :名無しさん@お腹いっぱい。 (ワッチョイ d7d2-AZVN):2016/05/31(火) 00:49:27.83 ID:oZ5ZU4SC0.net
>>58
平均的にはいいんだけど,現在のモデルよりすごく悪くなる例がいくつかあってどうしてもよくならないので苦悩しています
(ウェブの方を置換するので現在より悪い例はできるだけ無くしたい)
あと2倍といっていたけど,モデルのロード時間も測ってしまっていて
測りなおしたら4倍近く速かったので,もう少し遅くなっていいのでよくできないかなと考えています

62 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ):2016/05/31(火) 10:03:28.13 ID:C22Vvmqga.net
>>61
お疲れ様です。
すごく悪くなる例というのは、以前おっしゃられていたピクセルアートなどの場合でしょうか?
私はプログラミングのことはよくわかりませんが、悪くなる原因というのは現行方式にくらべて新方式が速く処理できる以上、
何か重要な処理が省かれてしまっている、もしくは簡略化されてしまっている、という可能性はないのでしょうか?
逆に言うと、省かれたか簡略化された処理がかねてより問題の輪郭線などが溶けてしまう要素とも関係していたりはしないのでしょうか?

もしそうであるならばですが、拡大処理などをする前にまず画像全体をチェックして、新方式で問題ないと判断される場所は新方式で高速処理し、
問題が出そうと判断される場所は現行方式、あるいはさらに改良した方式をあてがうなど、処理を切り替える必要性があるのではないでしょうか?

それと3年ほど前の記事ですが、こんな記述も参考になるかも
・東芝「REGZA Z8X」開発陣に聞く、「本格的4K時代」 4Kだから差が出る画質。地デジを高画質化の秘密
http://av.watch.impress.co.jp/docs/series/rt/20130809_610976.html

「ではなにが実物感に繋がっているのかというと、グラデーションの美しさであったり、自然なエッジの持つ「柔らかいが細かい」という感覚です。
映像エンジンとしては、階調性や微小な振幅が失われないよう、いかに内部のバス幅を広くとるか、ということを意識して開発しています。

最後まで12bitで伝送するといったことにこだわらないと、4Kらしい実物感が出てこないのです。」
→つまり、前回お話ししていた8bit画像を高bit化する際の処理方法とその後の情報精度維持が効く!

63 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ):2016/05/31(火) 10:04:09.16 ID:C22Vvmqga.net
・微細テクスチャー復元
http://av.watch.impress.co.jp/img/avw/docs/610/976/html/ppt05.jpg.html

「2Kの段と4Kの段をしっかりわけて処理しないと、そうした「リアリティ」が出ない

そんなにゲインをかけてはいないです。微小なところしかかけていないんですが、それを入れるか入れないかで、4Kになってしまうと大きくかわってきます。」
→微小な階調差の領域とそうでないところを同じ処理(=強調)をしてはいけない!
※協調具合は逆ガンマ特性であてがうといいのかも

・絵柄構造適応型MPEG-NR
http://www.toshiba.co.jp/regza/lineup/z700x/quality_03.html#psa
→絵柄の相関性に基づいてフィルターの形状を適正化の部分を取り込むことで、参照範囲を拡張することによるアーティファクトの問題を軽減!

64 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ):2016/05/31(火) 10:11:05.50 ID:C22Vvmqga.net
8bit画像を高bit化について追記

ノイズ除去や拡大する前に、ディープラーニングを使った高bit化(8→16bit化)が必要なのかも。
※単なるデータだけ16bitにしました、ではなく!

65 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ):2016/05/31(火) 12:33:31.37 ID:C22Vvmqga.net
>>64を訂正

元画像でディープラーニングを使った高bit化(8→16bit化)ではなく、waifu2xで内部的に確か使っているニアレストネイバーで拡大した画像をディープラーニングを使った高bit化(8→16bit化)のほうがいいのか?

66 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ):2016/05/31(火) 12:35:45.44 ID:C22Vvmqga.net
いや、それなら拡大後の画像にディープラーニングを使った高bit化(8→16bit化)を適用すればいいのか?
手元で試せるわけじゃないからわからんな・・・

67 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ):2016/05/31(火) 12:57:25.17 ID:C22Vvmqga.net
そもそも原点に戻るべきなんだろうか?

waifu2xが出た当初、今よりも輪郭が溶けやすかったので、NNEDI3で拡大後にwaifu2xでノイズ除去のみ適用というのをやったことがあったけど、
waifu2xが改良されてからNNEDI3を使う方法は全く試してなかったんだよねぇ。

NNEDI3と最新版のノイズ除去との組み合わせ、あるいは以前に書いたような輪郭成分と認識される部分だけに適用されるような新型ノイズ除去?との組み合わせならばどうなるのだろうとふつふつ・・・

そのうち時間が取れたら試すか。

68 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-yuEZ):2016/05/31(火) 13:14:26.12 ID:C22Vvmqga.net
手元に以前にNNEDIS3にて2倍、4倍、8倍に拡大した画像があったので改めて見てみたのだが、確かに眠い画像ではあるんだけど輪郭とかは自然なんだよね。
NNEDI3で拡大して、画像の面成分(=「Imager::AnimeFace」にて輪郭と認識されないところ)のみwaifu2xにて超解像効果を適用・・・

それができるのならば、テレビなどでよくある解像度の変換はなしで、解像感だけアップする手段にも使えるのか?

69 :名無しさん@お腹いっぱい。 (ワッチョイ 7b0f-dYmh):2016/05/31(火) 13:20:06.61 ID:7tY1vICr0.net
ダラダラとうぜえ・・・

70 :名無しさん@お腹いっぱい。 (ワッチョイ e7e2-FhuW):2016/05/31(火) 16:10:01.21 ID:nKVf7NYn0.net
「私はプログラミングのことはよくわかりませんが」って奴が、よくまあ長々と愚にもつかない事を語れるもんだ
マジでどういう神経してるのかと

71 :名無しさん@お腹いっぱい。 (ワッチョイ e39d-kHkB):2016/05/31(火) 16:19:05.88 ID:IXSgPgWR0.net
大手サイトで紹介されたのは初めて?
http://www.itmedia.co.jp/news/articles/1605/31/news119.html
以前話題になってた自動カラー化の

72 :名無しさん@お腹いっぱい。 (スプー Sdff-q9La):2016/05/31(火) 18:17:18.12 ID:G7S0Hj3Td.net
>>70
まあアドバイスをするぐらい良いじゃない
作者も嫌なら無視すればいいだけなんだし

73 :名無しさん@お腹いっぱい。 (ワッチョイW 576c-q9La):2016/05/31(火) 19:23:41.36 ID:DPKFBz190.net
>>61
結構苦労されてるみたいですね…
個人的に処理速度より精度を気にしてるので期待しています(特に輪郭線)

74 :名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM):2016/06/02(木) 10:13:34.24 ID:8dS/92/Ma.net
今日のGoogleは影絵作家の生誕記念バージョンになっているけれど、新バージョンは影絵とかも不得意かもと思ったところでひとつ気になったことがあったので調べてみた。

・Convolutional Neural Networkとは何なのか
http://qiita.com/icoxfog417/items/5fd55fad152231d706c2

気になったのは
「CNNの進化
年が経るにつれ精度が上がってきているCNNですが、近年の構成では以下のような特徴がみられます。
フィルタを小さくし、階層を深くする
PoolingやFCのレイヤをなくす
以下の図では、年々精度が上がるにつれレイヤが深くなっているのがわかります。」
の部分。

つまり、フィルターというか参照範囲そのものを増やすよりもレイヤー(考え得るパターンの分岐?)を深く(=パターンを増やす)するほうが得策っぽい件なのだが、
そうであるならば、参照範囲は現行程度に留めて、フィルターの形を複数用意してそれぞれの絵柄に応じて一番しっくりくるフィルターの情報を基に畳みこみした方が
いいんではなかろうかとふと思ったのですが、ダメですかね?

フィルターをあらかじめ、正方形、長方形、△(向き四方向各々)菱形、8角形、とか用意しておいて、全部実行して一番いいのを選択。

TTLモードで回転による8パターンをやる時間があるならば、この方がいい結果が出るような気もするんですが。

75 :名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM):2016/06/02(木) 10:30:41.45 ID:8dS/92/Ma.net
すでにやっている人はいたようです。

・Deep Learning Advent Calendar 2015
http://vaaaaaanquish.hatenablog.com/entry/2015/12/25/005523
「sliding windowのスケールの違いによって入力も違うため, 誤認識が発生するという問題もありました.
そこで, Exhaustive Searchのスケールによる誤認識を減らすための画像処理手法や計算量を減らす手法*4, 物体検出に対して効率的な手法*5が出てきたり,
CNN以外でもsliding windowの欠点を補うようなRandom Forest的手法*6が出てきたりしました.」

で、さらにDeep Q-Network(DQN)などというものも出ているようで(名前がなw)
深い・・・

76 :名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq):2016/06/02(木) 10:37:26.83 ID:oNKZhMTS0.net
もう悪くなりそうなパターンを調べてそういうパターンを自動生成して学習データに加えることで無理やり対応した
例: http://ccsaku.moe.hm/gyazo/data/0b76b99850d7cc5eac0e4857da451890.png
こういうパターンを良くするのと引き換えにイラストの平均的なスコアは少し下がると思うけど
最悪な場合のスコアはかなり上がっているはずなのでいいやろという感じ

イラスト90枚のセットで,縮小に平均画素法を使ったときの平均PSNRが
既存: 36.74, 新: 37.07
縮小にLanczosを使った時が
既存: 36.76, 新: 37.25
で平均も既存よりは良くなっている
処理速度も2.4倍くらい速い
対応方法はこれでいいと思うので,
あとちょっと調節するのとノイズ除去付きも試してみてよければ追加で
ウェブの方は新モデルで置き換えることはほぼ決まりです

77 :名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq):2016/06/02(木) 10:53:32.12 ID:oNKZhMTS0.net
>>74
レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数のことで
>フィルタを小さくし、階層を深くする
これはVGG Netなどの3x3畳み込みを何度も繰り返すネットワークで
waifu2xは元からこれをベースにしています.
また1x1畳み込み以外だとレイヤを増やすと参照範囲も広がります.
フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず

78 :名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM):2016/06/02(木) 10:56:14.63 ID:8dS/92/Ma.net
>>76
お疲れ様です。
悪いパターンを自動生成して学習ですか。
それはよさそうですね。
確かにこういうコントラスト比の高く境界面の差が大きい画像を集中的に取り込んでおくのはいいと思います。
(そういう意味では影絵もいいのか?)
期待しております。

79 :名無しさん@お腹いっぱい。 (アウアウ Sae5-YSaM):2016/06/02(木) 11:00:59.96 ID:8dS/92/Ma.net
>>77
入れ違った・・・
解説ありがとうございます。

>レイヤというのはwaifu2xでいうと畳み込み+ReLUを行うの回数
ということは、演算回数を利用者が任意に変更できるようになると、
・回数を減らして時間短縮(精度は落ちる)
・回数を増やして精度向上(時間はかかるが、1日でも2日でもバッチコーイならば・・・)
とかできるといいかもしれないなと思いました。

>フィルタの型は係数によって変わると考えていいと思うのでこれも最適化されているはず
それは素晴らしい。

結果を楽しみにしておきます。

80 :名無しさん@お腹いっぱい。 (ワッチョイW fc6c-1HXA):2016/06/02(木) 20:21:59.49 ID:pnTBbeI40.net
>>76
おお!
お疲れ様です
上で出てたアニメの輪郭線などは改善されそうですか?

81 :名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq):2016/06/02(木) 23:11:39.30 ID:oNKZhMTS0.net
今の感じだとアニメは拡大後の理想される線の質がイラストと違うので
イラストで学習しているとダメだと思います
写真モデルを使えば無難な結果になると思うけど

82 :名無しさん@お腹いっぱい。 (スプー Sdb8-1HXA):2016/06/03(金) 07:56:07.56 ID:wf71obz2d.net
やっぱり輪郭線は直らないのか…
そこ期待してたのにだけにちょっと残念だ

83 :名無しさん@お腹いっぱい。 (アウアウ Sae5-qzWR):2016/06/03(金) 08:07:32.57 ID:W5n/SZaca.net
写真モデルで試してと書かれていると思いますが…
写真モデル+TTL+新バージョンの組合せで、どれだけ改善されるか次第かと。

84 :名無しさん@お腹いっぱい。 (ワッチョイW fc6c-1HXA):2016/06/04(土) 10:43:26.24 ID:LR9p0GeB0.net
本家、もしかしてもう新バージョンに変わった?

85 :名無しさん@お腹いっぱい。 (ワッチョイ 95d2-wHOq):2016/06/05(日) 00:04:39.84 ID:Tj8OObVD0.net
いいえ

86 :名無しさん@お腹いっぱい。 (テトリス fc41-ChPp):2016/06/06(月) 21:11:13.67 ID:mne5Rlul00606.net
モノクロ写真をアップすると……? 「人工知能で白黒写真をカラーに」を試せるWebサービス
ディープラーニングを応用し、白黒写真を自然な色味に彩色する手法をブラウザ上で実行できるWebサービスが公開された。
http://www.itmedia.co.jp/news/articles/1606/06/news131.html

87 :名無しさん@お腹いっぱい。 (ワッチョイ 59d1-ChPp):2016/06/07(火) 01:06:02.01 ID:TrYKmBlx0.net
>>86
へー、これもローカルで動くやつ誰か作らないかな(他力本願

88 :名無しさん@お腹いっぱい。 (アウアウ Sae5-8R5K):2016/06/07(火) 09:35:28.02 ID:AUEYrNINa.net
>>86
学習データが偏っているんだろうけど、黄色あたりが不自然なんだよな、これ。
もっと学習データ増やさないと。
ディープラーニング関係の資料を見ていて思うのは、学習データがキモであるにも関わらず、学習するのに時間がかかるせいか妙に学習データの数が少ないなと思うケースがしばしばあるように思う。
ある程度の正確性を求めたければ少なくとも10000以上は学習しないと話にならないのに。

89 :名無しさん@お腹いっぱい。 (ワッチョイ fc41-ChPp):2016/06/07(火) 10:08:31.94 ID:nWqCN5140.net
例えばこういう植物とかは緑になる
https://sociorocketnews.files.wordpress.com/2013/11/24142124124.jpg
http://blog-imgs-57.fc2.com/c/h/a/chariome/20131112223957f20.jpg
http://www.fmsaga.co.jp/blog/uploads/NCM_2635.JPG
http://www.fmsaga.co.jp/blog/uploads/NCM_2636.JPG

90 :名無しさん@お腹いっぱい。 (ササクッテロ Sp89-H1tZ):2016/06/07(火) 15:34:59.10 ID:pCuPD5oYp.net
ぼっさん

91 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/11(土) 15:38:17.09 ID:rLStxyFWa.net
いよいよ作者氏が本気出す時が来たようだ。
https://twitter.com/ultraistter/status/741488649884164096?lang=ja

ところで、GTX 1080 1枚 VS RX480 2枚で話題になった例の件、waifu2xの場合はやはりGTX 1080 1枚のほうがいいんだよね?

92 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/11(土) 19:45:42.62 ID:3Rvur7wT0.net
新モデル+GTX 1080だと640x480->1024x768のノイズ除去+2xが560msくらいでできています
あとGPUの違いなのかcuDNN v5+CUDA 8.0か分からないけど
以前試したら異常に遅かったWinogradという3x3畳み込みを速くするアルゴリズムが
速くなってて,現verも950msくらいで処理できています.
(以前は,新モデルのほうが3倍くらい速かったので差がかなり縮んだ)
AWS EC2のGPU+現verだと3700msくらいで,このGPUはGTX 760と同じくらいの性能です.

93 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/11(土) 19:59:19.46 ID:3Rvur7wT0.net
>640x480->1024x768
640x480->1280x960に訂正

94 :名無しさん@お腹いっぱい。 (ワッチョイ bb9d-7xHu):2016/06/11(土) 20:27:45.11 ID:qniHE9xy0.net
ベンチマークというか単純に自PCのショボさを比較したいのですが
皆で共通に使える適当な画像(画像群)ってどこかにあったりしますか?

R18にならない程度の2次で(ココ重要

95 :名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww):2016/06/11(土) 20:45:50.92 ID:rLStxyFWa.net
>>92
お疲れ様です。
GTX 1080導入、おめでとうございます。
アルゴリズムによって速度が変わるとのことですが、画質が変わったりはしないのでしょうか?
遅いけど高画質なアルゴリズムとかあるのかなと。
あと、二段階超解像ってできないかなと思ったりしてるのですが。
つまり、
1回目:今まで通りの超解像による拡大
2回目:1回目でできた拡大画像と元の画像を比較して、再度超解像効果を手直し
みたいな。
元画像と拡大画像を見比べて、「もっとここ手直しできる」というところを再調整とでもいうのか。
この2回目だけの処理だけ活用すると、元画像を拡大せずに解像感や輪郭まわりの再現性向上にも使えますだとなおうれしいんですが。

96 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/11(土) 21:06:09.55 ID:3Rvur7wT0.net
>>94
速度についてなら画像のサイズとチャンネル数(RGBか透過を持っているか)だけ合わせれば
画像の内容はほとんど関係ないと思います
>>95
変わりません
やりません
ただすごく変になった時/ところを検出できると便利とは思います

97 :名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww):2016/06/11(土) 21:22:18.30 ID:rLStxyFWa.net
>>96
アルゴリズムによる画質の変化はないんですね。
すごく変になったところを検出→フィードバック→再調整
ができればいいですね。

98 :94 (ワッチョイ 839d-7xHu):2016/06/11(土) 22:26:00.73 ID:+7f02WYI0.net
>>96
なるほど、てっきり線が多様でノイズの多い複雑だけど低画質なものが
加速度的に必要時間が増えていくものだと思ってました

開発、陰ながら応援しています

99 :名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR):2016/06/11(土) 23:05:53.70 ID:nlOtB76kd.net
560msって早すぎやろ!
waifu2xで動画エンコしてるけどかなり短縮されそうでワクワクだわ
俺もPascal買おうかなぁ

100 :名無しさん@お腹いっぱい。 (ワッチョイW 076c-jNGR):2016/06/12(日) 11:32:13.03 ID:068lTRES0.net
新モデルが待ち遠しいな…
完成までまだ時間掛かりそうですか?

101 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/12(日) 12:56:41.65 ID:KlXasCVu0.net
ノイズ除去付き拡大もうまくいっているので
たぶんもう学習処理回すだけです
イラストは明日には全部学習終わります
あと写真、Yモデルの再学習に4日つづくくらいかかる
ちなみに現在のモデルも使えるようにしているので追加という形になります
ウェブ版はGPUメモリの関係で全部のモデル読めないので置き換えますが
ベンチマーク的には結構スコアが上がっているけど
パッと見でわかるほどの違いはないと思います

102 :名無しさん@お腹いっぱい。 (ワッチョイW 076c-jNGR):2016/06/12(日) 13:07:19.18 ID:068lTRES0.net
>>101
思ったより完成が早いですね、お疲れ様です!
新バージョンは処理は早いけど精度(輪郭線や境界線等)はあまり変わらないということでしょうか?

103 :名無しさん@お腹いっぱい。 (ワッチョイ 9f39-pgBS):2016/06/12(日) 13:19:55.61 ID:b/8HpM7e0.net
ノイズ除去がYからRGBになったときはサンプルの画像挙げて変化を説明してたはず
画像出さずにPSNRの数値だけ出すのは人間の目から見てそう変化がないからだろう多分

104 :名無しさん@お腹いっぱい。 (ワッチョイ 9f39-pgBS):2016/06/12(日) 13:25:17.47 ID:b/8HpM7e0.net
サンプル出してたの別の人だったかも、うろ覚え(汗

105 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/12(日) 14:42:39.03 ID:KlXasCVu0.net
>>103
2枚重ねてみると、ところどころ違いがあるは分かりますけど
黙って置き換えても誰も気づかないのではないかという不安はあります
なんとなく違和感が減った気はするけどプラシーボかもしれない
PSNR的には結構良くなっているので、よくなっているのは確かだと思いますが説得力はないです
明日か明後日くらいにウェブの方イラストだけ置き換えようと思うので
気になる画像を持っている方はそのときに試してみてください

106 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/12(日) 15:47:23.38 ID:KlXasCVu0.net
やっぱ置き換えではなくてお試し用サーバー1台用意します。
もともと今のウェブ版はそういうものだけど、
もう普通のウェブサービスになってしまっていて置き換えるのに勇気がいるので。
それならTTAも使えるようにできます。(遅いのは仕方がないねということで)

107 :名無しさん@お腹いっぱい。 (ワッチョイW 076c-jNGR):2016/06/12(日) 16:01:03.81 ID:068lTRES0.net
>>105
写真モデルを用いても>>39のような輪郭線を綺麗にするのは難しいでしょうか?

108 :名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww):2016/06/12(日) 17:23:59.21 ID:sb1XFNmOa.net
>>101
いよいよですね。
期待してます。
>>106
サーバーを別途確保されるんですか?

お試し機能以外、サーバーでのサービスは、そろそろ有料化されたほうがいいんじゃないでしょうか?
ネットサービスは無料が当たり前という風潮がいまだにありますが、当たり前じゃないんだということを理解させることも大事だと思います。
(お試し機能も1人が専有し続けないような制限を設けたほうがいいと思います。)

別件で、かねてからの「溶ける」件、対処療法ではあるのですが、対策になりそうな方法を発見しました。
1週間ほど時間が取れないので、それ以降に検証してみる予定です。

109 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/13(月) 00:47:21.31 ID:X831nMGS0.net
>>107
元画像があれば見ておきますが。
写真はまだやっていないので分からないですが
イラストはそれほど変わっていないのであまり期待できないと思います。
ちなみにこれはイラストでノイズ除去2してますよね...?

110 :名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR):2016/06/13(月) 01:59:20.36 ID:grDqBPChd.net
>>109
>>39の画像上げた者です
画像のは704*396→1920*1080に拡大ノイズ除去2したものです
残念ながら今は元画像がないです…

111 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/13(月) 18:17:31.84 ID:X831nMGS0.net
http://waifu2x-dev.udp.jp/
で新モデル試せるようにしています
拡大とノイズ除去+拡大が変わっています.ノイズ除去のみは同じです.
自分で見た感じだと,拡大はそれほど違いはないし問題もないように思うけど
ノイズ除去が入ると,強弱が以前よりはっきり出ていて
いい時はいいけど,ノイズが強い時に線の太さが不安定になっているように思います.
なにか思うことがあれば書いていただくと対応できるかもしれません.
ベンチマーク結果は
https://github.com/nagadomi/waifu2x/blob/upconv/appendix/vgg_7_vs_upconv_7_art.md
にあります.ベンチマーク的には全部良くなっています.

112 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/13(月) 18:21:32.55 ID:X831nMGS0.net
やっぱりYUV 420のJPEGでやったほうがいいのかなと思い始めました.
現実のJPEGはほとんどがYUV 420で学習時にYUV 444しか見ていないので.
今は色が変わるのでやっていないのですが,選択できるようにするかもしれません.

113 :名無しさん@お腹いっぱい。 (スプー Sdcf-jNGR):2016/06/14(火) 02:01:47.66 ID:LX3lI3W3d.net
新バージョン、凄く速度が上がってますね
でも、輪郭線は正直微妙かなぁ
良くなってるところもあるけど、悪くなってるところも結構あったりする
こればっかりはしょうがないですね

114 :名無しさん@お腹いっぱい。 (スプー Sdcf-jNGR):2016/06/14(火) 02:19:04.81 ID:LX3lI3W3d.net
あ、間違えて旧版の写真モデルと比較してた
イラスト同士で見比べてみたけど、違いが全然わからんw
ただ、処理速度は格段に早くなってる

115 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/14(火) 10:39:33.36 ID:FTpBbaqf0.net
YUV420/YUV444半分づつで学習したら
入力YUV444時のスコアほとんど下げずに
入力YUV420時のスコアがっつり上げれる感じだったので
もうノイズ除去もこれに置き換えようと思います.
もともとJPEGの色のノイズ等も消しているし,色以前に細部が消えたりしているので
色がちょっと変わるリスクなんていまさらだよね...?
平均的には良くなるし,いくらか試すと線の境界などで色が濁ってるが結構直ってる.

116 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/14(火) 11:21:07.53 ID:cuCffqFAa.net
>>111
お疲れ様です。
早速試させていただきました。
イラストモデルのみではありますが試したところ、以前に比べて少し溶けにくくはなったような気もします(特に4倍以上にした場合)
なお、>>108にて書いた対処療法をすこし時間があったのでやってみました。
(結果は下記にてダウンロード可。明日の23時59分までの限定です。解説はテキストファイルに書いてあります。)
http://www1.axfc.net/u/3679593
写真モデルでやるとどうなるか、あるいはもうすこし小細工するかも含めて検討中です。

>>112
YUV 420モデル(イラスト・写真それぞれ)があれば、一種の色超解像的効果が期待できるので、圧縮画像には特に効用が見込めると思います。
期待しております。

117 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/14(火) 12:09:55.28 ID:cuCffqFAa.net
>>116の画像を若干手直ししました。
http://www1.axfc.net/u/3679606
この方がいいかも。

118 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/14(火) 12:26:29.32 ID:cuCffqFAa.net
あらかじめNNEDI3で拡大する前に、GIMPでアンシャープマスクを+0.10程度かけておいてからNNEDI3で拡大→縮小→waifu2x→再度GIMPにてコントラストとアンシャープで微調整のほうが細部の情報が残りやすいみたい。
アップする時間がなくなったので今日はここまで。

119 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/14(火) 18:07:05.51 ID:cuCffqFAa.net
移動中に報告
NNEDI3を使って、圧縮画像によく見受けられる輪郭周りのノイズを除去して溶ける症状を抑える件、もっと手間を少なくかつNNEDI3を使うことによる副作用である
ボケる点を克服できそうな方法を見つけたかも。
古いソフトウェアなのだが「ノイズクリーナー2」というソフトをカスタマイズ設定にして極々微量のノイズ除去を行ってからwaifu2xで拡大するといくぶん溶けにくい。
ただし、設定の落としどころが難しい。

120 :名無しさん@お腹いっぱい。 (ワッチョイ 9b91-yUSa):2016/06/14(火) 22:53:23.00 ID:12Iwj2O80.net
imagemagickのコマンド、7になってから変わったの今初めて気づいた...

121 :名無しさん@お腹いっぱい。 (ワッチョイ 837c-wy7a):2016/06/15(水) 01:45:09.31 ID:aj7H3zSR0.net
アンシャープマスクよりボケずに済む方法を試してみました。
(テキストファイルに開設あり)
http://www1.axfc.net/u/3679934

寝ます

122 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/15(水) 12:07:14.79 ID:6gcbBuvXa.net
NNIDI3による前処理などいろいろ試した結果、

1.waifu2xは拡大する前に輪郭に作用しやすいノイズフィルターをあらかじめ適用しておくと、拡大した画像が溶けにくい。
2.NNEDI3は輪郭線に強く作用するフィルターのため、縮小後の画像にもその作用が強く残り、結果として輪郭ノイズ低減フィルターのような作用をもたらしている。
3.ただし、NNEDI3は面などの細かい情報もそぎ落としてしまいやすく、全体的にボケやすいため、そのままでは使いにくい。
4.面部分には作用せず、輪郭にのみ作用するフィルターがあれば理想的。waifu2xのノイズ除去(中)も試してみたが、waifu2xのノイズ除去は中でも強すぎるためこれも使いにくい。
(元画像とwaifu2xでノイズ除去した画像を合成してノイズ除去の強度を調整することはできるかもしれないが、合成度合をコントロールしながら合成できるような都合のいいソフトがあるのかどうか・・・)

もうあとは、この輪郭のノイズを制圧できさえすれば完成すると思われるだけに、何かいい方法があればと思うのだけど。

123 :名無しさん@お腹いっぱい。 (ワッチョイ 6f6d-cn0R):2016/06/15(水) 12:46:21.17 ID:p6o2+4CV0.net
単純にTotalVariationで分離してから掛けろよ

124 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/15(水) 14:57:07.20 ID:6gcbBuvXa.net
>>123
これのこと?
http://convexbrain.osdn.jp/cgi-bin/wifky.pl?p=TV-Denoising
ものすごく画像が甘くなってるんだが・・・
waifu2xの比じゃないよ、これ。

125 :名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR):2016/06/15(水) 15:01:46.27 ID:6WWfghFId.net
俺はエッジレベル調整使ってる

126 :名無しさん@お腹いっぱい。 (アウアウ Sab7-wy7a):2016/06/15(水) 15:25:03.46 ID:6gcbBuvXa.net
>>125
エッジレベル調整は輪郭のコントラストを無理やり強調しているだけだから、ノイズそのものは残っている状態なわけで、根本的な解決にならないかと。
こんなんだし。
http://aviutl.info/sharp/

127 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/15(水) 16:31:22.20 ID:JEuKL93L0.net
アニメの輪郭線に入っているノイズがイラストでは見ないパターンでうまくいかないので
そのあたりをイラストっぽい方に寄せることができればマシになるということだと思います.

古いアニメにある輪郭線まわりのノイズがソフトウェアで再現できるなら対応もできるのですが
どこで入ってくる何のノイズなんでしょうか.

128 :名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww):2016/06/15(水) 17:00:29.10 ID:6gcbBuvXa.net
>>127
たぶん圧縮画像特有のノイズだと思います。
圧縮画像は目につきにくい暗い部分の階調表現を大胆に間引いてしまいがちですので(攻殻機動隊のエンコードを担当した人が、かつてDVDの時代にとても苦労されていることを語られていましたし)、
暗部の多い圧縮画像を集中的にとりこんでモデルデータを作られるといいのかもしれません。
あるいは暗部の多い圧縮画像の割合の多いモデルデータを暗部ノイズ対策専用の前処理専用モデルとして用意して、事前に弱く(ここ重要!!)適用できるようにされるといいかもしれません。
ついでに現行のノイズ除去の強度ももっと弱いタイプを二段階ほど(最弱は中の1/3以下の強度!)用意して頂きたいとも思います。
(モデルデータを変えずに参照範囲を狭めるとかでの対応でも結構ですので)

129 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/15(水) 17:20:59.49 ID:JEuKL93L0.net
>>128
圧縮画像というのは具合的にどんな圧縮なんでしょうか.
TV用の当時のエンコーダがあってその癖なんでしょうか.
現在のJPEGノイズ除去の弱いバージョンはすぐ作れますが
動画を対象とするなら,動画用のエンコーダを使って
正しいデータセットを作るほうがいいと考えています.
ソフトウェアで再現が難しいなら,HDリマスタとその前のバージョンDVD?を買ってきて
フレームの位置合わせができるなら,そこから変換の対応関係を作るでもいいと思っています.
エンコの設定?とかできるならそれが一番いいですが.

130 :名無しさん@お腹いっぱい。 (ワッチョイ 1bd2-qOwk):2016/06/15(水) 17:48:43.36 ID:JEuKL93L0.net
今考えている動画の対応は,
- イラストに窓をつけて適当な速度で平行移動・回転したりをフレームとして切り出す
- 動画にエンコ(同時に1/2に縮小)
- エンコ後からまたフレームに分割して元画像への変換を学習する
ということです.
変換先がイラストになるのでアニメとはちょっと違う質感になるかもしれませんが
アニメの"元画像"って手に入らないと思うのと,
これだと作るのは簡単なので妥協点としていいのではと思っています.
他にはMMDから動画を作るとかですけど,これもシェーダーのクセを再現してしまうと思うので
たぶんイラストのほうがバリエーションが多くてよいです.

今すぐにやるという話ではなく,今やっている対応が終ったら
いまのところCNN超解像として改良できる部分はすべて終わるので
動画について色々言われるならそこでもやろうかなというレベルの話ですが.

131 :名無しさん@お腹いっぱい。 (スプー Sd4f-jNGR):2016/06/15(水) 18:09:19.82 ID:6WWfghFId.net
>>130
何のこっちゃよくわかりませんが、凄く期待してます

132 :名無しさん@お腹いっぱい。 (アウアウ Sab7-Hfww):2016/06/15(水) 18:10:55.45 ID:6gcbBuvXa.net
圧縮画像のノイズの件、夜になりますがコメントします。
(今時間がないので)

133 :名無しさん@お腹いっぱい。 (ワッチョイ ebd2-zRkg):2016/06/15(水) 22:19:16.48 ID:iLIvxjAw0.net
いわゆるHDリマスターは解像度やエンコードだけでなく映像自体も違うことがあるから
比較対象としてはBDとDVDが同時発売のものじゃないかな
海外版との比較だと同解像度のビットレート違いなんてのもあるかも

アニメと一口に言っても輪郭の特徴がそんなに多くの作品に共通してるかは疑問だけど

134 :名無しさん@お腹いっぱい。 (ワッチョイ c37c-oJ6o):2016/06/16(木) 02:12:13.44 ID:8MOB+ifY0.net
やっと帰宅できた・・
すみません、気力が持たないので昼以降に改めてコメントします。
限界

135 :名無しさん@お腹いっぱい。 (ワッチョイ 76e2-ege2):2016/06/16(木) 04:06:54.85 ID:10TNdGfw0.net
体壊さない程度にがんばってくれ

136 :名無しさん@お腹いっぱい。 (アウアウT Sa3e-4fuR):2016/06/16(木) 17:17:40.41 ID:dOR2VLG8a.net
今日初めて写真の拡大に利用させてもらいましたが凄い技術ですね。
応援しています!頑張ってください!

137 :名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19):2016/06/16(木) 18:24:55.57 ID:ipCAAVq1a.net
>>129
昨日疲れすぎてコメントできなかった圧縮ノイズについてですがコメントしておきます。
まず下記サイトを参照ください。
http://www.asahi-net.or.jp/~ax2s-kmtn/ref/jpeg.html

このサイトの一番下部の画像を見るとわかりやすいかと思いますが、建物の輪郭周りに本来であれば存在しない種々のノイズがまとわりついているのがお分かりいただけると思いますが、
こういったノイズが輪郭周りに細かくまとわりついている画像をwaifu2xにて拡大すると、輪郭などが溶けやすくなっています。
NNEID3によってあらかじめこのような輪郭にまとわりつきやすいノイズを滑らかにしておくと、waifu2xにて拡大時に溶けにくくなっているのは先日実証した通りです。

このため、もしこのようなノイズ専用の対策フィルターを作るのであれば、JPEGなどの非可逆圧縮をしていない画像を複数用意し、その画像をJPEGにて高圧縮し、わざと輪郭などにノイズが出ている画像(画像サイズは等倍でよい)を作成し、
圧縮前と圧縮後の画像をディープラーニングによって学習させれば、圧縮ノイズ対策にはなるでしょうけれど、それは結局現行のノイズ除去と考えとしてはそう大差ないかなとも思います。

とするならば、やはり前回にお伝えした通り、今よりもっとノイズ除去強度の弱いフィルターをまずは用意すること、そしてその先の展開としては、その弱いフィルターを輪郭と認識される部分のみに適用できるようなオプションを用意できればなお良いかと思います。
(オプションを有効にすると輪郭のみに適用、無効にすると画像全体に適用、ノイズ除去強度は、「最弱(中の1/3か1/4程度の強度)、弱(中の1/2程度の強度)、中、強、最強」の5段階あたり?)
輪郭の認識手法については、AviUtlなどのフィルターである「エッジレベル調整MT」の輪郭検出手法あたりでよいのかなと思います。

138 :名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19):2016/06/16(木) 18:25:35.35 ID:ipCAAVq1a.net
続き
エッジレベル調整MTの参考
http://aviutl.info/sharp/
http://aviutl.info/wp-content/uploads/20160220-020557-553.jpg

あるいは別の考え方としてですが、NNEDI3の輪郭に作用する部分だけをインスパイアした輪郭ノイズ除去フィルターを作れるならば作ってほしいという考え方もありますが・・・
参考
https://github.com/MaverickTse/AviUtlInstaller/blob/master/deinterlace_plugin/nnedi3/jp/nnedi3.txt
(それが可能であるならば、AviUtlを通さずに済むため、RGB→YUV→RGBの変換ロスを気にしなくて済むのと、16bit画像なども直接扱えるようになるので大変ありがたいのですが)

昨日お話ししていた圧縮画像の暗部の階調情報の大幅な簡略化をわかりやすく示す画像が探した範囲でなかったのですが、これは大面積部については通常のwaifu2xのノイズ除去でも対応できる範疇かと思いますので、ひとまず置いておきましょう。

ちなみに上記の件より、今のところ動画用に別途のノイズ対策(一つの画像に小さな窓を設定してスライドなど含む)は今のところしなくても大丈夫かと思います。
(動画の圧縮率の高い状況で輪郭周りに一番除去しにくいノイズがあるのはH.264で圧縮した画像ではありますが)

139 :名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19):2016/06/16(木) 18:44:15.78 ID:DV2OC3cTa.net
上記のことを書いてから気づいたのですが、ひょっとすると拡大前にGIMPの「選択的ガウスぼかし」を超絶的に最弱で適用してから拡大すればいけるかも・・・

140 :名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19):2016/06/16(木) 19:52:56.77 ID:DV2OC3cTa.net
「選択的ガウスぼかし」でいけたかもしんまい・・・
試しにアップしてみた
http://www1.axfc.net/u/3680573

いや、この延長で行くならばバイラテラルフィルターを極微量適用のほうがよりダメージは少ないかも?

141 :名無しさん@お腹いっぱい。 (ワッチョイ a66d-Wpqh):2016/06/16(木) 20:52:17.87 ID:zGfIcyp20.net
NL-MeansやBilateral等のエッジ保存ノイズフィルタをかけたのが骨格成分
それと原画との差分がテクスチャ成分で多くの種類のノイズ含む微小変化分
高性能に分離するのがTotal Variationフィルタ

骨格だけwaifu2xでテクスチャ成分はLanczos3で後で適量を合成すればいい
暗部はガンマ補正して暗部の輝度差を広げたのを処理して逆ガンマで戻して
通常ガンマの画像と合成
こんなんでどうだ?

142 :名無しさん@お腹いっぱい。 (ワッチョイ f9d2-XvC/):2016/06/17(金) 10:45:07.16 ID:uiYIwWPv0.net
YUV420 JPEGで学習すると線もきれいになった気がするので
JPEG画像についてはJPEGノイズの種類が適切でなかったのもあるかもしれないです.
印象も色の濁りが減って良くなったように思うんですが
それはつまり色が変わっていることなんですが...
来週くらいに-devのほうはYUV420対応に置き換えます.
現verのノイズ除去も同じ教師データで学習したものに置き換えようと考えています.
(拡大時だけノイズ除去のかかり方が違うと混乱を生むと思うので)

143 :名無しさん@お腹いっぱい。 (ワッチョイ f9d2-XvC/):2016/06/17(金) 12:24:23.88 ID:uiYIwWPv0.net
エッジ周りのノイズを取るのは, バイラテラルとは逆の重みだと思うんですけど"周り"だとそうなんでしょうか.
エッジ用の重みのマスクを作って合成するのが簡単じゃないかと思います.
自分としては,データセットを泥臭くいじったりはあっても
データを用意したあとは最適化問題としてやるのがいいと思っているのと
手でごちゃごちゃってもさまざまなパターン(さまざま例外を含む)を考えると
平均的な精度で機械学習に勝つことはできないと思っているので前処理や後処理をやる気はないです.
弱いノイズ除去は用意できます.

144 :名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19):2016/06/17(金) 12:25:21.08 ID:egwY+yyva.net
>>142
お疲れ様です。
420、やはり効果ありましたか。
となると、やはり元が非可逆圧縮している画像→420モデル、元が可逆圧縮か非圧縮画像(444の状態)であれば444モデルと選択できるといいのかもしれないですね。

こちらでも非線形フィルターなど含めいろいろテストしてみたのですが、ある程度のところまではいくものの、やはり根本的にはイラスト用モデルで試していることの限界もあり、これで文句なしというところまではいかなかったので。
420モデルの写真用が使えるようになるとおそらく前処理に関しては非線形フィルターでもなんとかなるかなとは思うのですが。
(もちろんwaifu2xのノイズ除去に最弱があればその方がいいと思いますが)

145 :名無しさん@お腹いっぱい。 (アウアウ Sad9-1v19):2016/06/17(金) 12:29:24.44 ID:egwY+yyva.net
>>143
入れ違った。
私も合成するよりはディープラーニングの判断に任せる方がいいとおもいます。
最弱フィルター、お待ちしております。

146 :名無しさん@お腹いっぱい。 (ワッチョイ f9d2-XvC/):2016/06/17(金) 12:34:06.52 ID:uiYIwWPv0.net
人はエッジ周りが変になっていることに敏感なので
損失関数でエッジ周りの重みを上げるとかは全然いいのかなと思ったけど
もうやっているんですよね. .
そういうことも考えるともうほとんど手動調節やなという気もする

147 :名無しさん@お腹いっぱい。 (アウアウ Sad9-BoQW):2016/06/17(金) 13:01:39.74 ID:egwY+yyva.net
>>146
損失関数でエッヂ周りの重みをとはどういうことなんでしょうか?
私はとりあえずGIMPとAviUtlのフィルターを複数試している程度なので、上記の件がどのフィルターの作用なのかよくわからないですが(滝汗…)

いずれにしても、もう一息のところまでは来ているかなと思います。

148 :名無しさん@お腹いっぱい。 (ワッチョイ c699-7Pd6):2016/06/18(土) 12:14:20.27 ID:qBjQF52o0.net
caffeの作者さんにファイル名についてお願い、と言うか要望があるのですが、例えば元ファイル名が
 img.jpg
のものをRGBモデル、ノイズ除去レベル1、拡大倍率x2.000000、で処理した場合
 img(RGB)(noise_scale)(Level1)(x2.000000).png
のようになるかと思いますが、これを例えば
 img-RGB_nsLv1_x2.0.png
のようになるべく短いファイル名になるようにしたいのです
リネームソフトの手間もなくなりますし
簡潔に言うと、RGB・Photoなどのモデル、レベル、倍率にそれぞれ自分好みのネーム設定ができたらいいなと

149 :名無しさん@お腹いっぱい。 (ワッチョイ fcd2-/3y4):2016/06/19(日) 12:44:00.16 ID:5d2T2vgy0.net
それもまたきりのない話だな
そのうち小数点以下何桁までで丸め方のルールは〜とか設定したくなるかもしれない

150 :名無しさん@お腹いっぱい。 (ワッチョイ f9d2-sZHE):2016/06/19(日) 14:27:28.71 ID:B8m/ESUS0.net
出力ファイル名を
{ORIGINAL_FILENAME}_{NOISE_LEVEL}_{SEQUENCE_NO;%06d}.png
みたいなフォーマットで指定できればいい話ではあると思うけど

151 :名無しさん@お腹いっぱい。 (ワッチョイ a66d-Wpqh):2016/06/19(日) 18:26:21.66 ID:JdLEHa3u0.net
下手な実装するとバッフオーバーフローの脆弱性持ちそうだな

152 :名無しさん@お腹いっぱい。 (ワッチョイ 76e1-4fuR):2016/06/20(月) 01:51:15.15 ID:Q6Azk7Sq0.net
各項目対象に文字数制限は必要ね

153 :名無しさん@お腹いっぱい。 (ワッチョイ f9d2-sZHE):2016/06/20(月) 18:24:37.59 ID:OxeSzmHe0.net
http://waifu2x-dev.udp.jp/ のノイズ除去をYUV420 JPEG対応に置き換えています。
試していないですが、ノイズ除去だけはソフト版にも持っていけると思います。
https://github.com/nagadomi/waifu2x/tree/upconv/models/vgg_7/art

154 :名無しさん@お腹いっぱい。 (アウアウ Sad9-BoQW):2016/06/20(月) 19:50:44.69 ID:F1cC+6iua.net
>>153
お疲れ様です。
ノイズ除去更新、了解です。
ところでノイズ除去の最弱と弱は、まだ時間かかりそうでしょうか?

155 :名無しさん@お腹いっぱい。 (ワッチョイ f9d2-sZHE):2016/06/20(月) 21:10:41.84 ID:OxeSzmHe0.net
>>154
写真の学習を先にやっててこれが1週間くらいかかると思うのでその後になります

今ノイズレベル1〜3なので、0に追加しようと思っています。
ノイズ1でも対象とするJPEGの品質65〜85で確かに強いかなと思うので。
80〜95くらいのやつを入れます。

156 :名無しさん@お腹いっぱい。 (アウアウ Sad9-BoQW):2016/06/20(月) 21:47:03.21 ID:F1cC+6iua.net
>>155
よろしくお願いします。

157 :名無しさん@お腹いっぱい。 (ワッチョイW c76c-gJJb):2016/06/24(金) 00:16:13.19 ID:Tj0Yx6nv0.net
w2xcは対応してくれないのかな
caffeでエンコとかやったことないから困る

158 :名無しさん@お腹いっぱい。 (ワッチョイ 1f39-HU42):2016/06/24(金) 05:19:48.84 ID:1pQApire0.net
>>157
https://github.com/HomeOfVapourSynthEvolution/VapourSynth-Waifu2x-caffe

caffeでエンコードするこういうのもあるみたい。導入がちょっと面倒くさいが。

159 :名無しさん@お腹いっぱい。 (ワイモマー MM57-jO4j):2016/06/26(日) 12:28:20.99 ID:qPmlSzrmM.net
写真だとノイズ除去がイマイチなんで、waifuで拡大だけやって
Neat Imageでノイズ除去するという使い方させてもらってます
最新のV8は白ボケをどう直したらいいのか分からないので古いV7.6使ってる

160 :名無しさん@お腹いっぱい。 (アウアウ Sa5f-Gho2):2016/06/26(日) 21:25:04.12 ID:KxHEnHfza.net
ディープラーニングについて、NHK-Eテレにて今夜23時30分よりサイエンスZEROにて放送

161 :名無しさん@お腹いっぱい。 (ワッチョイ b7e2-jO4j):2016/06/28(火) 23:31:12.36 ID:YVu6qt8i0.net
サイトが見れない?

162 :名無しさん@お腹いっぱい。 (アウアウ Sa17-RJF0):2016/06/29(水) 00:50:43.91 ID:VaEWzwoya.net
私もサイトが表示されないですね…。(´・ω・`)

163 :名無しさん@お腹いっぱい。 (ワッチョイ dbb7-o//t):2016/06/29(水) 02:23:18.17 ID:f5M/bR6F0.net
waifu2xって画像縮小できないの?

164 :名無しさん@お腹いっぱい。 (ワッチョイ 9b64-9GV8):2016/06/29(水) 02:26:53.26 ID:Lar04yff0.net
こーひーできるだろ

165 :名無しさん@お腹いっぱい。 (ワッチョイW 1739-gJJb):2016/06/29(水) 05:58:30.93 ID:1ZU+/ZGG0.net
つかえないんやが

166 :名無しさん@お腹いっぱい。 (ニククエ Sa17-RJF0):2016/06/29(水) 14:07:06.67 ID:VaEWzwoyaNIKU.net
お、サイト繋がった!良かった

167 :名無しさん@お腹いっぱい。 (ニククエ MM57-jO4j):2016/06/29(水) 17:54:31.19 ID:CAYY+cjmMNIKU.net
落ちてるぞ、ウチ32Bit環境やから困るわ

168 :名無しさん@お腹いっぱい。 (ニククエW 1fd1-gJJb):2016/06/29(水) 18:30:58.55 ID:ShnTKE5+0NIKU.net
俺も繋がらない

169 :名無しさん@お腹いっぱい。 (ニククエ MM57-jO4j):2016/06/29(水) 22:10:41.75 ID:CAYY+cjmMNIKU.net
NHK クロ現でノイズ除去やってる

170 :名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+):2016/06/30(木) 12:16:44.06 ID:Cb9/jtjmM.net
ワイフ生き返った

171 :名無しさん@お腹いっぱい。 (ワッチョイ 88e2-R7o+):2016/07/01(金) 02:09:40.55 ID:5LM7wvfF0.net
超解像って単に拡大してシャープフィルタかけたのとは違うよね…?

172 :名無しさん@お腹いっぱい。 (アウアウ Sa25-xb4q):2016/07/01(金) 09:40:15.03 ID:h5/8p4PQa.net
全く違います

173 :名無しさん@お腹いっぱい。 (ワッチョイ fc51-R7o+):2016/07/01(金) 10:10:53.84 ID:M34jK4ST0.net
コンピュータが2種類の拡大結果を提案してユーザーがキレイだと思ったほうを選んでいく。その結果を蓄積してく。みたいにやったらだんだん画像はキレイになってくの?

174 :名無しさん@お腹いっぱい。 (ワッチョイ 687c-NBGD):2016/07/01(金) 10:29:17.86 ID:uGgAQSA00.net
>>171 >>173
「元画像」と「元画像にノイズを添加したもの」、もしくは「元画像」と「元画像を1/2に縮小したもの」に対し、
後者から前者を作成できるように機械学習させたのがwaifu2x

175 :名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+):2016/07/01(金) 16:33:57.22 ID:G/tSW9oqM.net
Neat Imageのコミュニティに入った
http://i.imgur.com/ZlmZtHz.jpg

176 :名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX):2016/07/01(金) 16:58:14.36 ID:u6NBrYfw0.net
>>174
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープ

177 :名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX):2016/07/01(金) 16:59:01.87 ID:u6NBrYfw0.net
>>174
その変換をどういうフィルタをかければよくできるかをデータから決めてる感じですね。
シャープすぎることがあるのは、1/2縮小時にボケることの副作用の気がしていて
もっとよい縮小アルゴリズムが求められている。
>Neat Image
写真はJPEGノイズよりもカメラの高感度ノイズのほうが一般向けに需要がありそうなんですよね。
自分も写真のデータセットを作るときにセンサに由来すると思われるノイズが取れなくて結局縮小してしまったし。

178 :名無しさん@お腹いっぱい。 (ワッチョイ dd91-A58j):2016/07/01(金) 17:39:27.23 ID:WhtBr2UD0.net
つい最近ソフトの存在を知ったのだが、作者は何者?

179 :175 (ワイモマー MMcd-R7o+):2016/07/01(金) 17:41:57.50 ID:G/tSW9oqM.net
>>177
アナログをスキャナで取り込む時も同じではないでしょうか
とりあえずサンプル貼っときますね、撮影は1989年頃
http://i.imgur.com/WIFzEKU.jpg
http://i.imgur.com/d65jMq4.jpg

180 :名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-R7o+):2016/07/01(金) 19:59:48.62 ID:lQ0BYCYQ0.net
これ比較する時って、補完無しで同率拡大した画像とで比べたほうが判りやすいよね 多分

181 :名無しさん@お腹いっぱい。 (ワイモマー MMcd-R7o+):2016/07/01(金) 23:08:12.50 ID:G/tSW9oqM.net
フル画面表示した時の画質の違いでおk

182 :名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-R7o+):2016/07/02(土) 01:42:19.02 ID:M9jj+JKN0.net
それだとドでかい画像の場合縮小表示しちゃうんじゃね

183 :名無しさん@お腹いっぱい。 (アウアウ Sa6a-s3GQ):2016/07/02(土) 20:17:17.05 ID:Js2/0ggxa.net
Olympus viewerの様なデジカメや一眼レフカメラに付属しているソフトとwaifu2x-caffeと比べたら細かい部分を拡大する時どちらが優れていますか?

184 :名無しさん@お腹いっぱい。 (ワッチョイ fc51-R7o+):2016/07/02(土) 20:28:02.40 ID:60Js3xoy0.net
市販のやつが一番

185 :183 (アウアウ Sa6a-s3GQ):2016/07/02(土) 23:41:57.11 ID:TF/iwvGYa.net
>>184
ありがとうございます。

186 :名無しさん@お腹いっぱい。 (ワッチョイ 3a39-xKxK):2016/07/03(日) 23:32:02.98 ID:wVW5bsnw0.net
waifu2x-caffe ver 1.1.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.4

upconvモデルに対応
変換に使用するGPUデバイスを指定できるようにした
コマンドライン版の出力ファイル名自動生成の規則をGUI版と揃えた
かなり中身を書き直した関係でメモリ不足対策が無効になった

187 :名無しさん@お腹いっぱい。 (ワッチョイ fc9d-R7o+):2016/07/04(月) 00:53:04.84 ID:16kM987e0.net
1.1.4
今まで問題のなかった batch_size 指定で
waifu2x-caffe-cui.exe -b 4 -i kore.jpg

waifu2x-caffe-cui.exe --batch_size 4 -i kore.jpg
だとエラー吐いて失敗するようになった

waifu2x-caffe-cui.exe -b=4 -i kore.jpg

waifu2x-caffe-cui.exe --batch_size=4 -i kore.jpg
のように = で指定するとエラーにならず変換は問題ないっぽいけど
-c asdf だとusage表示、 -c=asdf や -b=qwer とかで変換は成功するので
= でつなぐと batch_size 指定が無視されてるだけ?

エラーメッセージは下のような感じ
Could not create log file: File exists
COULD NOT CREATE LOGFILE '20160704-004037.8712'!
F0704 00:40:37.079417 6000 math_functions.cpp:92] Check failed: error == cudaSuccess (11 vs. 0) invalid argument
*** Check failure stack trace: ***

188 :名無しさん@お腹いっぱい。 (ワッチョイ fc28-R7o+):2016/07/04(月) 10:40:14.99 ID:gZoKUAJa0.net
好きな写真をいろんなタッチに自動で加工してくれる「deepart.io」
http://gigazine.net/news/20160703-deepart-io/

どんな写真が作れるのかは以下のページを見ると分かります。
Selected latest deeparts
https://deepart.io/latest/
http://i.gzn.jp/img/2016/07/03/deepart-io/snap.png

189 :名無しさん@お腹いっぱい。 (スプー Sdb8-s3GQ):2016/07/04(月) 18:22:16.94 ID:eTmRTPxcd.net
>>186
更新お疲れ様です
本家のdev版では写真のほうも追加されてますが
もしかしてそちらの更新も追加されているんでしょうか

190 :名無しさん@お腹いっぱい。 (ワッチョイ d532-NpNI):2016/07/04(月) 23:32:53.22 ID:jkv2bR2s0.net
>>186
upconvは文字の潰れが少なくて良いです

191 :186 (ワッチョイ 3a39-xKxK):2016/07/04(月) 23:40:18.55 ID:NcDz8yAM0.net
紛らわしいかもしれないけど自分は更新情報を書き込んでるだけで作者じゃないよ

192 :名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX):2016/07/05(火) 00:02:07.39 ID:0Z3aC8fN0.net
waifu2x-caffe upconvの速度はどんな感じです?
caffeはDeconvolutionがcuDNN対応していないのと
cuDNNもforward algorithmの自動選択が微妙で
Torch版ほどの差は出ていないのではと思うので気になっています。

193 :名無しさん@お腹いっぱい。 (ワッチョイ 2d36-R7o+):2016/07/05(火) 02:47:19.53 ID:y52RVxO/0.net
>>186
公開ありがとうございます
ver.1132までは問題なく使えておりましたが、今回verでは実行ボタンを押すと同時に落ちます
win7pro 64bitのノートでCPU動作です
対策あれば教えてください

以下エラーログです
Log line format: [IWEF]mmdd hh:mm:ss.uuuuuu threadid file:line] msg
E0705 02:40:25.573511 5904 common.cpp:119] Cannot create Cublas handle. Cublas won't be available.
E0705 02:40:25.575511 5904 common.cpp:126] Cannot create Curand generator. Curand won't be available.

194 :名無しさん@お腹いっぱい。 (ワッチョイ d5d2-PNsX):2016/07/05(火) 03:08:52.96 ID:0Z3aC8fN0.net
CUDAのライブラリがないと言っているので
CPU選択時にGPU使おうとしているのかな

195 :名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-R7o+):2016/07/05(火) 23:56:36.64 ID:CNSOSSvt0.net
caffe ver1.1.4で「?かなり中身を書き直した関係でメモリ不足対策が無効になった」ってあるけど
メモリ不足したらどうなんの?
他にも色々不安要素バリバリで更新しないほうがいいのかな

196 :名無しさん@お腹いっぱい。 (ワッチョイ 0fa1-37rI):2016/07/07(木) 04:36:12.87 ID:2MUOiyuY0.net
waifu2x-caffe ver 1.1.5
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.5

197 :名無しさん@お腹いっぱい。 (ワッチョイW 8383-cFDw):2016/07/07(木) 06:15:46.59 ID:Shbm++tA0.net
ver1132からver115へ
実行押して1秒ぐらいで終わるって
早すぎませんかね?
後、画質の差はわからないです
マジお疲れ様です

198 :名無しさん@お腹いっぱい。 (タナボタ Saff-77u/):2016/07/07(木) 08:46:47.16 ID:szfYQdRBa0707.net
3DCGでIrayなどの物理レンダラーとかだと、ピクセル当たりの
サンプリンが少ないとノイズが残ります。

もしこれを学習させて綺麗に除去出来るなら、レンダリング
演算量の削減が出来るのでCG業界でも需要があるかも?

とりあえずDaz stuzio作成した、95%と100%でサンプリングした
画像を置いておきます。

http://fast-uploader.com/file/7023403027370/
http://fast-uploader.com/file/7023403077217/

waifu 2x でnoise_scale Level1 x2.0 イラスト実行
http://fast-uploader.com/file/7023403811009/



学習用サンプル画像も、無料で物理レンダラーが使えるdaz studio,
blenderなどでGPU使って作成出来るので、余裕が有ればmodelに
3dcgの低サンプリング画像の高画質化modelが欲しいです。

写真の低ISOノイズに近い物があるので、難しいかな?
ノイズ除去フィルタの領域になるか。

199 :名無しさん@お腹いっぱい。 (タナボタ 23d2-0AkP):2016/07/07(木) 09:05:03.41 ID:o2ChrGcQ00707.net
>>198
先日、ペアの教師データを用意すれば何でも学習できる機能(Universal filter!!)を入れたので
入力画像と理想的な出力画像のペアを用意できるなら試すことはできます。
githubで3DCGで解像度を変えたレンダリング結果を学習して拡大できないかという話がでているのと
自分もBlenderのCyclesレンダーを使っていて、これがサンプリングが少ないとめちゃくちゃノイズが出る上に
GPUを有効にしてもめちゃくちゃ遅くて困っているので試して見るかもしれません。
(ただ学習データ生成に使うレンダリングエンジンのくせに依存する気がする。
 レンダリングエンジンにあまり詳しくないので勘ですが)

写真の低ISOノイズ除去ができないのは、この現象が物理的なもので
コンピュータ上でシミュレートするのが難しく教師データが自動生成できないからで
データさえ用意できれば多分できます。

200 :名無しさん@お腹いっぱい。 (タナボタ Saff-77u/):2016/07/07(木) 09:09:21.80 ID:szfYQdRBa0707.net
あと以前AMDのGPU使ってたので、AMDのGPUでも動くとより嬉しい。


AMD、GPGPU向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供
http://srad.jp/story/15/11/18/0657225/

> Heterogenous Compute Compiler(HCC)と名付けられた新しいコンパイラはLLVM Clang
> ベースでC++11/14や/C11、OpenMP4.0、そしてC++17で採用予定のParallel STLに対応。
> 1つのコンパイラでCPUとGPUのどちらにも使える。そのためGPU用のカーネルを別のソースに
> 記述する必要はなく、ラムダ式でSTL互換のアルゴリズムに述語引数として渡せばよい。

> Heterogeneous-compute Interface for Portability(HIP)はHCCで利用できるCUDA風のAPI。
> HIPで書かれたソースコードはHCCだけでなく、ヘッダーファイルを加えることでNVIDIAのCUDA向けコンパイラであるNVCCでもコンパイル可能となる。
> 従来のCUDAコードをHIPコードに変換するためのツールも用意されており、これによってHSA環境はソースコードレベルでCUDAとの互換性を有することになる。

使ったことはないけど、CUDAコードをAMD環境用のバイナリにするコンパイラとヘッダが
公開されているので、リコンパイルだけでAMD対応も可能かも知れません。

201 :名無しさん@お腹いっぱい。 (タナボタ 23d2-0AkP):2016/07/07(木) 10:46:32.57 ID:o2ChrGcQ00707.net
caffeはopenclブランチをAMDの人がやってるみたいなので
そのうち対応するんじゃないかな

202 :名無しさん@お腹いっぱい。 (タナボタ Sdbf-oo3f):2016/07/07(木) 12:40:12.27 ID:X0GGd45dd0707.net
>>196
本家の写真、イラストの新バージョンに対応したの?

203 :名無しさん@お腹いっぱい。 (タナボタ a7e2-Ij6B):2016/07/07(木) 15:29:18.23 ID:Jgi4mmBU00707.net
waifu2x-converter追随しちくりっ

204 :名無しさん@お腹いっぱい。 (タナボタ 4336-Bfmi):2016/07/07(木) 17:12:02.28 ID:N0EeMUi700707.net
193です
エラー対応ありがとうございました

CPU動作ですと1132とほとんど同じ処理時間でした
同じ画像で比較したら97秒が96秒になりました
GPU買うしかないですね

205 :名無しさん@お腹いっぱい。 (タナボタ bf39-x9gT):2016/07/07(木) 17:28:10.64 ID:CjnjorT/00707.net
>>204
こちらでの結果と異なりますね。
UpRGBモデル使っていますか?

画像100枚平均処理時間 2倍拡大のみ CPU使用

caffe ver 1.1.5 RGB 22.43645秒
caffe ver 1.1.5 UpRGB 10.4412秒
w2xc ver 20160101 RGB 7.12312秒

206 :名無しさん@お腹いっぱい。 (タナボタ 4336-Bfmi):2016/07/07(木) 19:28:52.61 ID:N0EeMUi700707.net
>>205
ありがとうございます
UpRGBモデル使ってませんでした
ノイズ除去ありなしどちらも28秒切るところまで行きました
ほぼ同タイムで、ノイズ除去有の方がぱっと見てわかるすっきり具合でした
おかげさまでGPU購入をゆっくり検討できるようになりました

207 :名無しさん@お腹いっぱい。 (ワッチョイ 5f89-Bfmi):2016/07/07(木) 22:38:02.75 ID:mFWhvyoA0.net
waifu2x-caffe 1.1.5 にて batch_size の件、対応ありがとうございます
batch_size は 2 と 4 と不正な指定しか試してなかったので 1 の場合は盲点でした


プライオリティを付けるなら超低めの一点要望です
cudnn_data の生成される場所を カレントディレクトリ あるいは waifu2x-caffe-cui.exe の
ある場所だけでなく model_dir のように指定可能にできないでしょうか
指定可能の方が個人的には嬉しいのと、waifu2x-caffe-cui.exe のある場所固定(優先)
にすると Program Files の下に置いている人はどーなるんだ、
等という話もあるかと思うので指定可能を推したいです

関連は無いかと思いますが、エラーログの出力先も waifu2x-caffe-cui.exe のある場所に
固定されるとそれはそれで個人的にションボリなので
 エラーログの出力先は exe の場所固定
 cudnn_data の生成場所は exe の場所固定あるいは指定
というパターンになるのであれば、現状維持となる
 エラーログの出力先はカレント
 cudnn_data の生成場所はカレント
のままの方がエラー発生をエラーログの有り無しから掴みやすいので有り難いです

208 :名無しさん@お腹いっぱい。 (ワッチョイ 27d1-Bfmi):2016/07/07(木) 23:31:58.26 ID:Q807zVYb0.net
caffeいつの間にかCPUでも速くなってたんだな
俺の古いノートでもtanakamura版より速かった

209 :名無しさん@お腹いっぱい。 (ワッチョイW 9fbe-oo3f):2016/07/08(金) 00:21:26.70 ID:MxrGRp260.net
caffeってAMD対応してないのか
Vega買う予定だからそれまでに対応してほしいな

210 :名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f):2016/07/08(金) 02:30:16.54 ID:EpDyhBMv0.net
スキャナで取り込んだ白黒写真もサイズが大きいと効果なし
スキャン時のゴミとかも鮮明になる
16年前に撮った100万画素のデジカメでも効果あり
人物と背景の境目や文字が一番効果ある
ただ塗り絵みたいになる
2kの50インチだが60インチの4kに変えれば200万画素でも効果あるの?

211 :名無しさん@お腹いっぱい。 (ワッチョイ 4336-Bfmi):2016/07/08(金) 02:43:39.19 ID:U5gK4I5q0.net
>>210
サイズ大きいのは縮小してから拡大するときれいになるかもしれませんよ
写真はためしてませんが、漫画では効果てきめんでした

212 :名無しさん@お腹いっぱい。 (ワッチョイ 9798-Bfmi):2016/07/08(金) 10:41:00.32 ID:atx8Q/X+0.net
>>210
そう言う使い方には向かない

213 :名無しさん@お腹いっぱい。 (スプー Sdbf-q6Qi):2016/07/08(金) 16:24:04.54 ID:LIOMaWBvd.net
繋がらない

214 :名無しさん@お腹いっぱい。 (ワッチョイ fbd1-VBIq):2016/07/08(金) 18:42:36.60 ID:dsqbXFnh0.net
waifu2x-caffe ver 1.1.5なんだが
横幅指定が使えない というか縦幅指定になる
CUIで--scale_heigh使っても--scale_widthが動いてる
ファイル名は(height)になるんだけどな

215 :214 (ワッチョイ fbd1-VBIq):2016/07/08(金) 18:45:17.81 ID:dsqbXFnh0.net
がっと書いたら全部逆になってるな
縦幅指定が使えないが真

216 :名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f):2016/07/08(金) 21:19:24.39 ID:EpDyhBMv0.net
Nシステムや防犯カメラの画像解析と違うの?

217 :名無しさん@お腹いっぱい。 (ワッチョイ 9728-Bfmi):2016/07/08(金) 22:50:22.60 ID:FtOXgf4l0.net
>>216
防犯カメラのは数コマ撮影してノイズ除去してくんじゃね。それ専用のソフトがあったような。

218 :名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f):2016/07/09(土) 00:33:43.51 ID:UiHSYu5L0.net
人物写真100枚くらいレベル3で効果が大きいのは
文字>>>チェック柄などのライン>>人物と背景の境目のモスキートノイズ>肌のカラーノイズで修正できたのは全体の3分の1くらい。
文字が潰れた自炊コミックや小説が一番効果あるね

219 :名無しさん@お腹いっぱい。 (ワイモマー MM9f-Bfmi):2016/07/09(土) 06:03:12.82 ID:N2XUaDTaM.net
オンライン版は何かパスワード入れろとか出て来たぞ

220 :名無しさん@お腹いっぱい。 (ワッチョイW c799-oo3f):2016/07/09(土) 08:22:58.63 ID:nYSJWZ3O0.net
ユーザー名とパスワード?
そんなものどうやって確認したら良いんだよ!

221 :名無しさん@お腹いっぱい。 (ワッチョイ 5b91-ZuDG):2016/07/09(土) 11:23:58.89 ID:vV8RzQQI0.net
waifu2xで検索するとwaifu2x-multiが上に来ててワロタ
作者どうにかしろよ

222 :名無しさん@お腹いっぱい。 (ササクッテロ Sp1f-cFDw):2016/07/09(土) 12:21:18.09 ID:gXGWJsZ2p.net
おまえがすりゃいいだろ

223 :名無しさん@お腹いっぱい。 (ワッチョイ 23d2-0AkP):2016/07/09(土) 12:43:20.65 ID:1eYwCzvQ0.net
ページランクは明らかに高いと思うけど
頻繁に落ちたりドメインだったりでgoogleの評価が下がってるんだろうな

パスワードは,サーバーが落ちてEC2内でIPアドレスが再利用されて別のサイトに誘導されていただけです(こわい)

あと,noise0(これまでの一番弱いやつよりも弱い)を追加したのと,waifu2x.udp.jpのほうも新モデルに変えました.
前よりも不安定な印象なのでたまに謎のノイズが出たりがあるかもしれないですが,平均的には良いです.
noise0はJPEG品質85〜95(1回)くらいでnoise1や除去なしよりも良くなります.
見た目ノイズないのに拡大するとノイズが強調されて出てきたようなときに使えると思います.

224 :名無しさん@お腹いっぱい。 (ワッチョイ bf39-x9gT):2016/07/09(土) 13:13:24.07 ID:vW24965J0.net
>>223
お疲れ様です
質問なのですが、新モデルに切り替えて処理速度が早くなったらサーバーに余裕が出来て今までより安く運営出来るとか安定するとかそういうメリットは発生しますか?

225 :名無しさん@お腹いっぱい。 (ワッチョイ 23d2-0AkP):2016/07/09(土) 14:21:05.59 ID:1eYwCzvQ0.net
>>224
GPU的には余裕ができると思うので扱える画像のサイズをでかくしました.2560x2560 -> 3000x3000まで.
ただ処理速度も重要ですが,転送量が多くてつっかえている感じがあるのであまり変わらない気がします.
画像が昔のモデムみたいな速度で上から次第に表示されていくことがあるのは処理速度ではなく帯域のせいです.
常時50〜120人くらいが同時に使っていて1リクエストで2MBくらいの画像を出力するので結構な量になります.
処理が速くなりでかい画像がより高速にやりとりされようになると逆につらくなるかもしれません.
たまに落ちるのは単に金銭的問題で毎月タワマンの家賃くらい払えば落ちなくなりますが,払っていないのでたまに落ちます.
(これは色んな話を断ったりしているのであまり言い訳にはできないんだけど)

226 :名無しさん@お腹いっぱい。 (ワッチョイW 4739-oo3f):2016/07/09(土) 16:07:08.82 ID:K5bxkZUs0.net
たまーに長い時あるよねぇ〜
マルチもフツーのやつも

227 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-oo3f):2016/07/09(土) 19:26:07.00 ID:nYNdyt/pa.net
Olympus Viewer 3でシャープネス(数値は+7)で編集後に拡大したらノイズが酷くなったのですがwaifu2xでその画像のノイズを改善できますか?

228 :名無しさん@お腹いっぱい。 (ワッチョイ 4b7c-Bfmi):2016/07/09(土) 21:05:02.49 ID:PxPxd/Jw0.net
質問の意図が分からん
無料なんだから自分で試してみなよ

229 :名無しさん@お腹いっぱい。 (ワッチョイ 9728-Bfmi):2016/07/09(土) 21:11:57.04 ID:fAUSGoqf0.net
>>227

写真の編集を納得いくまでやりたいなら↓がオススメ
https://www.google.com/intl/ja/nikcollection/

GIMPで使いたいとき

shellout plugin for NIK
http://steaz.altervista.org/shellout-plugin-for-gimp-and-nik-collection/

230 :名無しさん@お腹いっぱい。 (ワッチョイ 5b91-ZuDG):2016/07/09(土) 21:49:14.07 ID:vV8RzQQI0.net
やっぱり話とか来てるのか
流石だ

231 :名無しさん@お腹いっぱい。 (ワッチョイ a7e2-Ij6B):2016/07/10(日) 04:07:17.50 ID:aXg7mYO+0.net
話受けたら現状維持できなくなる可能性が微レ存?

232 :名無しさん@お腹いっぱい。 (アウアウ Sa7f-oo3f):2016/07/10(日) 06:29:41.30 ID:u96Wq/kna.net
>>229
ありがとうございます。

233 :名無しさん@お腹いっぱい。 (ワッチョイ 83a1-37rI):2016/07/11(月) 02:10:05.35 ID:L0atsYt80.net
Release ver 1.1.6
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6

234 :名無しさん@お腹いっぱい。 (ワッチョイ 839d-Bfmi):2016/07/11(月) 04:03:13.80 ID:3xx0SzsG0.net
>>233
おお、ついにノイズレベル0が!

cui版で -n 0 のように noise_level 0 を指定すると

PARSE ERROR: Argument: -n (--noise_level)
Value '0' does not meet constraint: 1|2|3
(Brief USAGE 略)

って怒られてエラーになっちゃいます
GUI版で変換した noise_level 0 の画像と比較すると、noise_level 無指定の場合には
きちんとデフォルトの noise_level 0 になるようです(UpRGB)

ついでに --help を出しても noise_level に関しては 0 の無い 1.1.5 以前のままです

235 :名無しさん@お腹いっぱい。 (ワッチョイ d325-Bfmi):2016/07/11(月) 13:40:38.41 ID:PaECKmpe0.net
拡大するとアニメ塗りの塗り壁になってしまう
人工知能のわりに頭が悪いな。本当に
人間より優れたシンギラなるんかと疑問点。

3次画像を拡大する専用の
Youjo2seXを早く出せよ、おい!

236 :名無しさん@お腹いっぱい。 (ワッチョイ 0315-Bfmi):2016/07/11(月) 13:53:25.53 ID:FgWkp8c20.net
重力をシミュレートしてオッパイを大きくしたり立体を認識してオッパイの影を変えちゃうとかできるようになるかな?

237 :名無しさん@お腹いっぱい。 (ワッチョイ 27e2-Bfmi):2016/07/11(月) 15:26:05.48 ID:EGf/5Brb0.net
3次なら写真のほうでやってるか?

238 :名無しさん@お腹いっぱい。 (ワッチョイ db3b-+LlH):2016/07/11(月) 19:50:44.68 ID:rrQkvAft0.net
作者の気に入らないユーザーには使わせないような仕組みがあればなぁ

239 :名無しさん@お腹いっぱい。 (ワッチョイW 5ba4-oo3f):2016/07/12(火) 02:31:32.01 ID:xzA7ng9T0.net
3次元写真向けの自動補正ソフトないですか?

240 :名無しさん@お腹いっぱい。 (ワッチョイ 235d-Bfmi):2016/07/12(火) 08:50:12.67 ID:Iqc/vrEd0.net
>>239
Yes!TAKASU CLINIC!

241 :名無しさん@お腹いっぱい。 (ワッチョイ 0315-Bfmi):2016/07/12(火) 10:43:28.64 ID:VQ1i59d30.net
これとか凄い。ディズニー凄い。

FaceDirector: Continuous Control of Facial Performance in Video
https://www.youtube.com/watch?v=o-nJpaCXL0k

242 :名無しさん@お腹いっぱい。 (オッペケ Sr3d-4wno):2016/07/14(木) 08:29:48.81 ID:69szQv+1r.net
また落ちてる!
いくらなんでも頻繁すぎるのでは?

243 :名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN):2016/07/14(木) 09:38:42.50 ID:kfj6dhpi0.net
スポットインスタンスは月単位で見ると安いのですが
たまに異常に価格が上がることがあるのでそういうことが起こるたびに落ちます.
今は1台あたりの鯖代が1時間$6.5まで価格が上がったので落ちました.
1時間$6.5で3台動かしていると1日放置で5万円くらいかかるので落ちてくれないと困る感じです.
許容範囲のところがあればそこで復活します.

244 :名無しさん@お腹いっぱい。 (スプー Sd28-4wno):2016/07/14(木) 12:55:40.76 ID:PjfewzbAd.net
w2xcで動画エンコしてるんですが
Aviutlで動画が綺麗になるオススメのフィルタとかありますか?
一応、今はエッジレベル調整を併用してます

245 :名無しさん@お腹いっぱい。 (ワッチョイ 49a9-/weA):2016/07/14(木) 13:39:09.41 ID:FgL37a7K0.net
たぶん,誰か考えたと思うんですけれども,
例えば,元画像を4倍に拡大したいとして,

A.そのまま4倍に拡大する
B.半分に縮小した後,8倍に拡大する

を組み合わせた学習モデルって作れないですか?

解像度が低い画像を拡大しようとした時に,
Bだと近くのものは綺麗に拡大されるのですが,遠くのものが潰れてしまいます.
一方で,Aは全体的に綺麗なのですが,Bほど近くのものは綺麗にならない.

複雑で潰れそうな部分はAで,大雑把な部分はBのモデルを適用できれば,
画質がかなり改善されそうな気がするのですがいかがですか?

246 :名無しさん@お腹いっぱい。 (ワッチョイ 3d25-8xJT):2016/07/14(木) 13:51:27.47 ID:AKBc/xAg0.net
これって輪郭検出のち内部を塗りつぶすソフト?ですか?
のぺ〜っと、、細かな情報が消えてしまう。
クスコ、 じゃねえランチョで拡大、のちw2でノイズ消しの
ほうがシャアぷに仕上がるようです少佐

247 :名無しさん@お腹いっぱい。 (ファミマW FFd0-8GE1):2016/07/14(木) 19:42:25.11 ID:GmzwyXSXF.net
日本語でおk

248 :名無しさん@お腹いっぱい。 (ワッチョイ bcd2-GuGR):2016/07/14(木) 20:02:13.83 ID:x6vqi83V0.net
>>245見てこれを思い出した
http://www.slideshare.net/nikuque/ss-52190439/1
これで画像のサイズや圧縮率、動画のビットレートの最適化ができたらいいな

最近思ってるのは画像に関して機械学習でノイズ除去や高解像度化ができるなら
音声に関してもできないかなと。個人的には画像よりこっちの方が興味ある。

249 :名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN):2016/07/15(金) 01:22:46.25 ID:2zYLl84L0.net
>>248
音はいろんな人が言っているけど
音声(自然言語)って厳格だからちょっとミスって変になったらものすごく気になるように思う.
画像(絵)はちょっと変でもまあ仕方ないかで済むけど.
想像で言ってますが.

250 :名無しさん@お腹いっぱい。 (ワッチョイ 7d7c-8xJT):2016/07/15(金) 02:00:47.45 ID:MkkKZ1cc0.net
ガ(ry)ぞ
ttp://www.kobe-np.co.jp/news/awaji/201607/0009281896.shtml
ttps://coubic.com/awajicinema

251 :250 (ワッチョイ 7d7c-8xJT):2016/07/15(金) 02:01:26.04 ID:MkkKZ1cc0.net
誤爆ごめんなさい

252 :名無しさん@お腹いっぱい。 (ワッチョイ f8e2-8xJT):2016/07/15(金) 09:46:25.21 ID:EtUlD+t70.net
サイトのうしろの人が気になる

253 :名無しさん@お腹いっぱい。 (ワッチョイ bcd2-GuGR):2016/07/15(金) 14:43:45.51 ID:lsrfj+NR0.net
>>249
音声っていっても声より音楽、オーディオデータ全般が目当てなんだよな
サンプリング周波数やビット深度が細かかったらこんな倍音が乗っていたはずだ(可聴域外でも)とか
クリップした波形の修復(これは機械学習以前からいろいろ研究されてる)とか
もしかしたらエフェクトの新しい概念が生まれるかもしれないし

画像でも綺麗にするだけじゃなくて積極的な加工に使える可能性はあると思う
やたら重いわりに得られるものが何だか分からなくてダメかもしれないけど

254 :名無しさん@お腹いっぱい。 (ワッチョイ fb91-hASY):2016/07/15(金) 18:36:53.00 ID:kzVyt7ZA0.net
新バージョンの解説記事とかは書かれないんですか?(読みたい)

255 :名無しさん@お腹いっぱい。 (ワッチョイW 8a32-VzEl):2016/07/16(土) 01:17:02.43 ID:N6yx45UH0.net
死んでね?

256 :名無しさん@お腹いっぱい。 (ワッチョイW b039-4wno):2016/07/16(土) 01:25:56.15 ID:dEJ3j/L/0.net
おまえはもう

257 :名無しさん@お腹いっぱい。 (ワッチョイ bb0f-L3Fl):2016/07/16(土) 02:11:45.11 ID:S43VbK8v0.net
         ,,ィニニヽ彡彡彡彡ミニ三ミ、
        ,ィミシ彡ミミ、゛彡彡彡三ミ、彡イ三;ヽ
       {彡y彡彡y彡ミ 彡彡三三彡Y彡三ミ}
       {ツ彡シィイイ彡ミ 彡三ミミシシヾミ三シ
       (彡彡イ/////ノ〃〃ハ;ヾヾミ三彡Y 三)
       {彡y///イ/     ミヾヾミ三彡Yシイ
        Y((( /       `ミミ三三彡イミ、
         !、,,,_     _,,,..---   ゛ミ,ィイi }ミ三;シ
          }T゛'tゝ .:´ ィ弋カ'-    Y/5 /i川イ
         !  ̄ .i :.   ̄ ...    ーノミト、シ
         ',:.:. ,' ::.    .:.:.:.:    iイミ三ソ
         ',  ヽ ー        !::ミミ三リ
          ヽ. ゛'三‐‐‐'`     ノ :::iーーー'
           `、      , '  : :',
             ` ー-┬‐ '     : :ヽ
                  |        : : \
              ___....l:: ::  __ , ---.ヽ

         シンディ・ルー (1984- インド )

258 :名無しさん@お腹いっぱい。 (ワッチョイW c553-4wno):2016/07/16(土) 09:57:24.60 ID:2YtzRzg40.net
このソフトを使う場合、HBM2のVegaとGP100のPascalではどちらのほうが早く処理できますか?

259 :名無しさん@お腹いっぱい。 (ワッチョイ 323f-EqXU):2016/07/16(土) 14:03:31.11 ID:E/RHyF4m0.net
ここに書いておいたら読んでもらえるかな
caffe版の1.1.6を使用しています
変換も早くなり、レベル0も実装されて気に入っていますが
ちょっとした不具合を見つけましたので連絡です

・「ノイズ除去と拡大」または「ノイズ除去」モードでノイズ除去レベルを
1以上から0にした時、ファイル名がLevel0にならない
変換モードを変えてから元のモードに戻るとファイル名がLevel0になるので、
レベル0ラジオボタンのクリック時にファイル名変更処理が抜けているのかも

・ノイズ除去の自動判別が効いていない?
元々選択されていた除去レベルで処理している感じ

260 :名無しさん@お腹いっぱい。 (ワッチョイ ca89-8xJT):2016/07/16(土) 18:09:29.57 ID:hnFQHF9f0.net
>>259
『ノイズ除去(自動判別)と拡大』って readme によれば
『拡大を行います。入力がJPEG画像の場合のみノイズ除去も行います』
だから、もともと jpeg と png など混在した対象をまとめて変換する時用の
「”ノイズ除去適用対象を自動判別”と拡大」であって
「”ノイズ除去レベルを自動的に選択”と拡大」するという意図は
含まれていないような(実際そういう動作だし)

以前『自動判別』ってなにをどう? と思って readme 読んだ時にそう理解した

261 :名無しさん@お腹いっぱい。 (ワッチョイ 3239-eb7y):2016/07/16(土) 23:30:51.94 ID:W/gd8pMi0.net
waifu2x-caffe ver 1.1.6.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6.1

コマンドラインオプションでノイズ除去レベル0が指定できなかったバグを修正
GUI版でノイズ除去レベル0ラジオボタンを押した時に出力ファイル名サフィックスが変化しないバグを修正
中国語(簡体字)訳が正しく表示されなかったバグを修正

262 :名無しさん@お腹いっぱい。 (ワッチョイ 8a1d-8xJT):2016/07/17(日) 11:24:55.20 ID:xLDHp9GO0.net
「ノイズ除去(Level0)と拡大」と「拡大」ってどう違うの?

263 :186 (ワッチョイ 3239-eb7y):2016/07/17(日) 13:38:19.22 ID:0l5V0UQR0.net
>>262
ノイズ除去(Level0)はノイズ除去しないわけじゃなくて極弱めにする

264 :名無しさん@お腹いっぱい。 (ワッチョイ e6c4-BKa+):2016/07/17(日) 16:28:14.30 ID:5LD6v75S0.net
waifu2x-c-c-with-bat使ってみたけど
変換しようとするとidentifyがコマンドとして認識されていませんとかで動かない
そもそもhtaアイコンや起動後のGUIにD&Dも出来ない、なんか使い方が間違ってるのか?

265 :名無しさん@お腹いっぱい。 (ワッチョイ e6c4-BKa+):2016/07/17(日) 16:37:52.40 ID:5LD6v75S0.net
ソースを見る感じ、「下の[参照]でファイルを選択してください」の上の黒帯のところにD&Dするっぽいけど
禁止マーク出て画像持っていけん・・・良く分からん

266 :名無しさん@お腹いっぱい。 (ワッチョイ 323f-EqXU):2016/07/18(月) 02:32:36.92 ID:kLwhW3GT0.net
>>260
うおお今まで勘違いしてた
指摘ありがと

267 :名無しさん@お腹いっぱい。 (ワッチョイW e289-jj/H):2016/07/19(火) 14:21:24.05 ID:3zLqneLK0.net
電書向けのモデルはどれがいいのかしら

268 :名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN):2016/07/19(火) 23:46:09.06 ID:9/EyUQef0.net
イラストモデルは,青空文庫PDFをランダムなフォントサイズで画像に書きだしたものを学習データに混ぜてる.
2%くらいだけど.

269 :名無しさん@お腹いっぱい。 (ワッチョイ fb91-hASY):2016/07/20(水) 00:17:56.50 ID:r27zJO+90.net
そもそもNN系の手法使う必用無いと思うんだけど

270 :名無しさん@お腹いっぱい。 (ワッチョイ 96a2-PsRz):2016/07/20(水) 10:14:04.74 ID:Cc0UAxz90.net
落ちてる?
[web.lua] Error in RequestHandler, thread: 0x40336bf0 is dead.
▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼▼
/home/ubuntu/torch/install/share/lua/5.1/md5.lua:0: attempt to index a nil value
stack traceback:
.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:278: in function <.../ubuntu/torch/install/share/lua/5.1/turbo/httpserver.lua:255>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:553: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/iostream.lua:544>
[C]: in function 'xpcall'
/home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:568: in function </home/ubuntu/torch/install/share/lua/5.1/turbo/ioloop.lua:567>
▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲▲

271 :名無しさん@お腹いっぱい。 (ワッチョイ 69d2-ewdN):2016/07/20(水) 12:16:35.37 ID:Mmd6XeiM0.net
夜中にサーバーの1台がそのエラー出し続けていたけど今は直っているし謎です.
APIに使っているHTTP Serverがわりと怪しいのでメモリをぶっ壊して変になったあと落ちてupstartが再起動したのかもしれない.

272 :名無しさん@お腹いっぱい。 (スッップ Sd5f-eQ6f):2016/07/21(木) 13:16:23.51 ID:IR5KX4Jld.net
落ちてる

273 :名無しさん@お腹いっぱい。 (ワッチョイ 0325-iqWO):2016/07/21(木) 13:55:35.59 ID:9F1XqsII0.net
うちのPCじゃうごかないなあ
ヌーロンダブもどうなっとるんじゃ

274 :名無しさん@お腹いっぱい。 (ワッチョイ ff39-0GON):2016/07/25(月) 02:56:16.34 ID:rCMzi4GJ0.net
githubで外国人の人も言ってたけど4倍拡大以上だとアーティファクトが出ることがあるね。
「4x and 8x are not fully supported because this is waifu2x」らしいからしょうがないけど。

元画像
http://www.pixiv.net/member_illust.php?mode=medium&illust_id=57922779

UpRGB old 4倍
http://i.imgur.com/Hx51mML.png
UpRGB new 4倍
http://i.imgur.com/34szjiL.png
RGB 4倍
http://i.imgur.com/2u8aM7q.png

275 :名無しさん@お腹いっぱい。 (ワッチョイ 77d2-vKHU):2016/07/25(月) 04:14:04.42 ID:4alvlvzt0.net
数日前に更新したモデルでかなり出にくくなってると思ってたけどまだ出てますね
2倍の時点でも出てるようなのでもう少し頑張るか..

276 :名無しさん@お腹いっぱい。 (アウアウ Sacf-GUDH):2016/07/25(月) 14:52:40.14 ID:ANO+1WFAa.net
忙しくて久しく見れてなかったけど更新されたようですね。
>>274の問題は、継続ですか。
こうなるとやはりディープラーニング+αが必要なように思えますね。
ディープラーニングは優秀だけど完璧というわけではないので、なんらかの補助手段は必要なように思います。
こちらでも時間のあるときに新バージョンのテストはしてみますが、はてさて。

277 :名無しさん@お腹いっぱい。 (ワッチョイW e739-eQ6f):2016/07/25(月) 16:27:47.90 ID:ul9PwMxA0.net
お疲れ様です〜

278 :名無しさん@お腹いっぱい。 (アウアウ Sa0f-eQ6f):2016/07/27(水) 12:51:16.85 ID:DXmASclwa.net
1.1.6caffe、cuDNNでjpg3千枚処理したら半分辺りでフリーズして660が死んだ
別pcに入れ替えても駄目

279 :名無しさん@お腹いっぱい。 (ワッチョイ 1b7c-iqWO):2016/07/27(水) 15:16:02.75 ID:Xcqs/u6a0.net
鯖代ケチって家PCなんか酷使するから…安いグラボでまだよかったな
この手の大量処理はクラウドに丸投げが基本だよ

280 :名無しさん@お腹いっぱい。 (ワッチョイ 77d2-h5PY):2016/07/27(水) 15:54:13.79 ID:Rr+2U8Ur0.net
酷使すると死ぬのか
熱?

281 :名無しさん@お腹いっぱい。 (ワッチョイW eba4-eQ6f):2016/07/27(水) 16:10:27.99 ID:x4weqHzw0.net
>>280
フルタワーでケースファン7つエアコン27℃強風+扇風機直当て
660でも死んだらショック新品の950保証期間まで酷使

282 :名無しさん@お腹いっぱい。 (ワッチョイ f391-BS4f):2016/07/27(水) 18:00:57.04 ID:wX21/+5Y0.net
クラウド高いよ、何言ってるんだ

283 :名無しさん@お腹いっぱい。 (ワッチョイ 77d2-h5PY):2016/07/27(水) 18:56:13.21 ID:Rr+2U8Ur0.net
そんなに冷やさなきゃいけないレベルだとグラボよりHDDが心配だし
安定動作に神経使うストレスの方が辛いのではないか

284 :名無しさん@お腹いっぱい。 (ワッチョイ f391-BS4f):2016/07/27(水) 22:37:48.16 ID:wX21/+5Y0.net
自分で組んだのかな、普通はそんなことにならないぞ

285 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX):2016/07/28(木) 01:17:52.38 ID:8OVpTxFs0.net
オレもGTX260を使っていた頃は熱暴走で落ちるたびに冷凍してた

286 :名無しさん@お腹いっぱい。 (ワッチョイ 7a6d-c3jf):2016/07/28(木) 03:51:48.66 ID:LQWjxarY0.net
それって、waifu2xでCUDA使うと、下手なゲームよりGPUぶん回すってことか。恐ろしい……

287 :名無しさん@お腹いっぱい。 (ワッチョイW 4039-Y0VN):2016/07/28(木) 06:20:34.66 ID:Qyn3Cmpq0.net
たまーにワイフかけて保存したらその画像が真っ黒になって表示されないんだが
これは俺の使ってる画像整理アプリのせいか?

288 :名無しさん@お腹いっぱい。 (ワッチョイW 7fcf-xRNj):2016/07/28(木) 09:17:53.32 ID:/E0Xi9YX0.net
こういうときに免責事項が役に立つのよねえ
よかったな作者ともども!

289 :名無しさん@お腹いっぱい。 (ワッチョイW 4039-Y0VN):2016/07/29(金) 11:37:05.09 ID:vm3S9VUb0.net
また落ちてるっぽい……

290 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX):2016/07/30(土) 05:41:04.97 ID:0EvlKLvb0.net
upconv_7の2xモデル更新しています。
>>274
とgithubで上げられている例はアーティファクトでなくなっています。(2倍においては)
まだ出るパターンはあるかもしれませんが、出にくくはなってると思います。

PSNRが高いほうが出てたりするので1/2にしたときに潰れてしまうメッシュ状の模様を
書き込んで復元しようとしていて、判断をミスった時にそういうアーティファクトとして出ているのだと思います。
ミスることがあっても平均的にはやったほうが良くなるみたいですが
平均より最悪が重要だと思うので、アーティファクトが出にくいパラメータを最終的に選ぶようにしました。

291 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX):2016/07/30(土) 06:19:54.81 ID:0EvlKLvb0.net
>>287
ウェブ版なら使うブラウザ(Firefoxなど)によって
画像を名前つけて保存で画像が保存できていないことがある
ファイルサイズが小さいので見たら分かる

292 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-OJXh):2016/07/30(土) 12:44:32.29 ID:Jy30OL100.net
2倍や4倍のような拡大は実際めったにしないんだよなあ
様々な半端なサイズの元画像を、画面解像度の縦や横
(またはその2倍4倍など)を意識したサイズに拡大することがほとんど

waifu2xは学習モデルでの2倍拡大(場合によっては複数回処理)と
既存アルゴリズムでの拡大縮小を組み合わせてるんだっけ?

293 :名無しさん@お腹いっぱい。 (ワッチョイ e099-E1uE):2016/07/30(土) 13:14:42.89 ID:YuJWhpry0.net
拡大縮小は切り捨てで微妙に画像サイズが変わってしまうことあるので縦横指定も欲しいかなあ
1920x1826→1280x1217→1920x1825(1825.5)

294 :名無しさん@お腹いっぱい。 (ワッチョイ 7a6d-c3jf):2016/07/30(土) 13:36:45.89 ID:vtJie8gc0.net
単純倍だから出来るのであって、縦、横それぞれ解像度指定とか込みにしたら、
今みたいな時間で出来ないような気がする。

295 :名無しさん@お腹いっぱい。 (ワッチョイ 7c28-oK17):2016/07/30(土) 14:54:36.26 ID:0Mmf+fna0.net
リキッドリサイズだっけ。大きさを変えたくない部分を残して画像の拡大縮小するような技術。あれを使ったほうが無難だと思う。

296 :名無しさん@お腹いっぱい。 (ワッチョイ b9b4-oK17):2016/07/30(土) 16:43:14.63 ID:UcJY7F8E0.net
2倍と4倍だけ使って、必要がある時は別のソフトで縮小してます
どうしてもこれ単体で完結しなきゃならないって事はないと思うの

297 :名無しさん@お腹いっぱい。 (ワッチョイ cee1-oK17):2016/07/30(土) 17:45:08.04 ID:bIud6JO60.net
>>293
余分に拡大してから縦横指定の縮小すればいいんじゃね?

298 :名無しさん@お腹いっぱい。 (ワッチョイW 7fa4-Y0VN):2016/07/30(土) 17:53:12.62 ID:oKeh5+w+0.net
caffeのCUDAで7GB分のjpg処理した
丸1日かかってサイズが50GBに膨れ上がった。グラボは生きてる

299 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX):2016/07/30(土) 19:15:15.90 ID:0EvlKLvb0.net
新モデル(upconv_7)は構造上2の倍数にしか拡大できない。
最初のモデル(vgg_7)は任意サイズにBicubic等で拡大した結果を
CNNで修正するという形にすれば可変倍率にも対応できるけど
倍率固定して学習した時に精度で勝てないので、なら2倍にして縮小でいいのではと思ってる。
ただ縮小も気をつけないと縮小時にモアレやリンギングが出たりがある(これは一般的な話ではあるけど)。

300 :名無しさん@お腹いっぱい。 (ササクッテロT Sp69-xRNj):2016/07/30(土) 19:23:28.97 ID:n23zGb+9p.net
全然終わらないしCPUとメモリの使用が大変な事になってると思ったら拡大率が4000000になってた

301 :名無しさん@お腹いっぱい。 (ワッチョイ 7a39-ycy3):2016/07/30(土) 23:42:41.79 ID:sCD53oI10.net
>>290
対応ありがとうございます&お疲れ様です。
アーティファクトの問題はPSNRだけ見ても分からないので調整大変そうですね。

302 :名無しさん@お腹いっぱい。 (ワッチョイ b787-oK17):2016/07/31(日) 09:55:52.67 ID:NopmseGR0.net
>>299
特定倍率で縮小した際に全く同じ画像に戻るという謳い文句はどこいったんだろなw

303 :名無しさん@お腹いっぱい。 (ワッチョイ 68e2-oK17):2016/07/31(日) 10:50:24.06 ID:PAEE7ItP0.net
は?

304 :名無しさん@お腹いっぱい。 (ワッチョイ 7d91-XOua):2016/07/31(日) 15:25:26.10 ID:YE2fzuJR0.net
ニューラルネットより頭悪そう

305 :名無しさん@お腹いっぱい。 (ワッチョイ 7925-oK17):2016/08/01(月) 14:14:51.51 ID:s/CT/hUD0.net
AIやシンギュラがこれだけ進歩したんだから画像処理も
単なる塗りつぶしじゃなくてもっと賢い方法が出ないかな。
昔の映画やレコード音源の修正でも同じ、劣化逸失した情報を
量子演算で取り戻すような、根本的なところでの革新が必要。
やぱり人間の脳みその性能上限に縛られてる?だろ
そういや水着の布地て体積の半分以上はすきまの空間であり
そこを通り抜けてくる光線は多量に存在するはず。
その軌跡を光学補正して美少女の素肌映像を再現する
すきま光線解析ソフトが出ないかな?
あの光線が再利用されず無駄に散逸してるのは残念

306 :名無しさん@お腹いっぱい。 (ワッチョイW 75d2-yd0p):2016/08/01(月) 14:56:45.65 ID:XumSCgBa0.net
レンダリングに年単位かかりそうだな

307 :名無しさん@お腹いっぱい。 (ワッチョイ 7cb5-oK17):2016/08/01(月) 16:42:33.48 ID:HGp6ELjo0.net
>>305
ゴッホの油絵の自画像を写真にするデモを見たことあるからやればできるんじゃね

308 :名無しさん@お腹いっぱい。 (ワッチョイ 68e2-oK17):2016/08/01(月) 16:51:58.38 ID:HwLXQe2J0.net
受光器に達するまでに光が混ざって分解不能になってるから無理だろ

309 :名無しさん@お腹いっぱい。 (ワッチョイ dd15-oK17):2016/08/02(火) 13:05:32.05 ID:fGveZl970.net
AI利用の写真アート化アプリ、Prismaが大ブーム―大手ソーシャルメディアが買収?
http://jp.techcrunch.com/2016/07/20/20160719prismagram/

310 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX):2016/08/02(火) 13:17:49.07 ID:Vyq+NoRf0.net
waifu2xの作者「Prismaはneural styleのパクリ」

311 :名無しさん@お腹いっぱい。 (ワッチョイ 3da1-UCuX):2016/08/03(水) 06:41:47.32 ID:oVUNsKD/0.net
Release ver 1.1.7
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7

upconvモデルを更新
標準で使われるモデルをupconv_7_anime_style_art_rgbに変更
GUI版でupconvモデルが上に表示されるようにした
GUI版でノイズ除去レベルを0を変えても出力ファイル名が変化しないバグを修正

312 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd2-okXX):2016/08/03(水) 10:29:08.49 ID:muLCaGi+0.net
UpRGBはノイズ除去だけした時に一度拡大してから縮小していると聞きましたが
デフォルトにしまうとそこに不安がある気がします。
拡大縮小は結構劣化を生むと思うので、構造上難しいならいっそUpRGBでノイズ除去のみはエラーに倒してもいいように思っています。
一応JSON側にarch_name: upconv_7/vgg_7を入れてますが。

313 :名無しさん@お腹いっぱい。 (ワッチョイW 6b1a-d+5h):2016/08/06(土) 17:25:26.75 ID:sO6XeMu60.net
最近になってcafeとmultiがあることに気づいたんだけど
これってどちらも性能は同じなのかな?
multiのほうが画像単体で複数変換できるから便利な気もしないでもないけど
どなたか細かな仕様の違いご存知でしょうか

314 :名無しさん@お腹いっぱい。 (ワッチョイ 67d2-CqAC):2016/08/06(土) 21:11:33.14 ID:Yf7P2RxD0.net
waifu2x-caffe(最新版)はウェブ版(waifu2x.udp.jp)とほとんど同じはずです。
逆にそれ以外は使っているモデルが古いなどで細かく性能を測るとスコアは低いと思います。
https://triple-underscore.github.io/css-images/pixel-art-small.png
この画像をノイズ除去なし2倍で変換してみて
良し悪しに関わらず出てくる画像がウェブ版と異なる場合は
使っているwaifu2xのバージョンが古いです。
この画像はバージョンによって異なるアーティファクト(ノイズ)が出てくる呪いの画像なので
バージョンを調べるのに便利です。

315 :名無しさん@お腹いっぱい。 (ワッチョイW 6b1a-d+5h):2016/08/06(土) 22:26:20.88 ID:sO6XeMu60.net
>>314
ご丁寧にどうもです!

316 :名無しさん@お腹いっぱい。 (ワッチョイW 6b1a-d+5h):2016/08/06(土) 23:29:19.19 ID:sO6XeMu60.net
アプリの圧勝でした
サイトは使わないほうがイイですね
ありがとうございました。

317 :名無しさん@お腹いっぱい。 (ワッチョイ 2fe1-+Lqe):2016/08/07(日) 03:45:08.69 ID:EY9TRI870.net
>「waifu2x-caffe_Difference_From_ver1.6.0.zip」はver 1.6.0からの差分ファイルが入っています。

ってあるんですが、ver 1.6.0がどこを探しても見つかりません・・・

318 :名無しさん@お腹いっぱい。 (ワッチョイ e78c-+Lqe):2016/08/07(日) 09:47:07.72 ID:LibYw5eS0.net
>>317
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.6

319 :名無しさん@お腹いっぱい。 (ワッチョイ df5b-FBFv):2016/08/07(日) 16:21:37.06 ID:L8Aw2/wW0.net
それは ver 1.1.6 でしょw

320 :名無しさん@お腹いっぱい。 (ワッチョイ 6f04-MLGp):2016/08/08(月) 02:22:38.85 ID:Ex+ktA6y0.net
今の限界の3倍くらいの大きさの画像も処理できるようになると嬉しいわ

321 :名無しさん@お腹いっぱい。 (ワッチョイW f739-d+5h):2016/08/08(月) 03:24:26.81 ID:diE1g9JG0.net
そんなおっきい画像でなにすんの

322 :名無しさん@お腹いっぱい。 (プチプチ 17e2-+Lqe):2016/08/08(月) 09:45:36.14 ID:sUYNvMx200808.net
昔の解像度足りない画像を大サイズにできれば
出版用途もありそうだよね

323 :名無しさん@お腹いっぱい。 (プチプチ e78c-+Lqe):2016/08/08(月) 13:12:24.04 ID:NCCm5rlu00808.net
>>322
そういうのはフリーウェアじゃなくて高い市販のソフト使うんじゃね

324 :名無しさん@お腹いっぱい。 (プチプチ 17e2-+Lqe):2016/08/08(月) 18:22:35.20 ID:sUYNvMx200808.net
その市販のソフトってどれ?
フォトショじゃできないでしょ

325 :名無しさん@お腹いっぱい。 (プチプチ e78c-+Lqe):2016/08/08(月) 20:04:15.07 ID:NCCm5rlu00808.net
フォトショップで手動で

326 :名無しさん@お腹いっぱい。 (ワッチョイ 17e2-vLVs):2016/08/09(火) 13:38:23.30 ID:/39gSS+B0.net
商業で使うなら一般人の財布酷使してないで経費で落とせよ

327 :名無しさん@お腹いっぱい。 (ワッチョイ ab32-+Lqe):2016/08/09(火) 19:16:07.15 ID:q0m6fQ5g0.net
jpeg出力する時にサブサンプリングも選びたい

328 :名無しさん@お腹いっぱい。 (ワッチョイ f791-PPHl):2016/08/10(水) 11:08:28.80 ID:FZaDpFlT0.net
どう考えても一般人じゃないだろw

329 :名無しさん@お腹いっぱい。 (ワッチョイW 5a41-w5BT):2016/08/11(木) 10:59:07.17 ID:vnZIwvLQ0.net
コミケでSIGNICO買ってくる予定だけど
今年も画像処理についてなのかな

330 :Youjyo2Sex. exe→cute(笑 (ワッチョイ 4d25-MTuc):2016/08/11(木) 15:59:39.98 ID:Q9oi6RJK0.net
.
いまあるPIXdateからアニメ塗りではこれが限界な。
技術って上限があるんだね、カツワイルも宗教家のw
そういや、宇宙のホワイトノイズには宇宙人の美幼女動画8Kや
フル裸16Kも含まれているだろうしあれを受信して2chで実況中継
するのはどうかな?異星人の幼女ポルノだから法律の埒外だし
俺をタイホするのは越権行為だっ!警察は引っ込めッ!

331 :名無しさん@お腹いっぱい。 (ワッチョイ 39e5-MgLL):2016/08/11(木) 16:35:57.24 ID:4WxrPDBh0.net
わーお

332 :名無しさん@お腹いっぱい。 (ワッチョイ 4331-Q7Yp):2016/08/11(木) 20:56:01.57 ID:NtL5iqif0.net
お騒がせのhulu入れないマンだが
新ver(Vivaldi.1.3.551.30.x64.exe)に更新したらやっと見れるようになったよ
IDパス入力するログイン画面もでず入れるようになったよ
これで人にも心置きなく薦められるよ

333 :名無しさん@お腹いっぱい。 (ワッチョイ 4331-Q7Yp):2016/08/11(木) 20:56:33.37 ID:NtL5iqif0.net
誤爆したよ

334 :名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc):2016/08/12(金) 00:22:58.79 ID:7mBYz0dm0.net
>>332-333
名前に偽りなし

335 :名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw):2016/08/12(金) 21:04:51.54 ID:MqMeLtY+0.net
waifu2x-caffe初めて使ってみたけど処理に時間かかりすぎワロタ

336 :名無しさん@お腹いっぱい。 (ワッチョイW f883-xYo4):2016/08/12(金) 22:42:09.72 ID:SSR/eqY30.net
>>335
グラボ積みなされ

337 :名無しさん@お腹いっぱい。 (ワッチョイ 5c31-Q7Yp):2016/08/13(土) 01:47:53.51 ID:1UHkR4UU0.net
処理時間の目安CPUが分でGPUが秒

338 :名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw):2016/08/13(土) 01:52:33.75 ID:9hSx5rj10.net
http://i.imgur.com/1SO57Q2.jpg

339 :名無しさん@お腹いっぱい。 (ワッチョイ 5c32-lwVw):2016/08/13(土) 01:53:04.42 ID:9hSx5rj10.net
誤爆

340 :名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc):2016/08/13(土) 11:04:26.87 ID:bUa0xV+O0.net
>>335
http://akiba-pc.watch.impress.co.jp/img/ah/docs/747/222/html/mdosv1604_b51.jpg.html

GeForce730辺りでも十分速くなるよ。750Tiだと760と其処まで大きな差は無くなるよ。
数千、数万(例えば動画などが該当する)と連続処理させるなら兎も角、
1回にせいぜい百枚くらいまでの作業なら1万程度の750tiがコスパ最強だと個人的には思う。

341 :名無しさん@お腹いっぱい。 (オッペケ Sr8d-3Vwo):2016/08/13(土) 16:43:44.02 ID:SETYS8X8r.net
http://f.xup.cc/xup9unncade.jpg
なんじゃこりゃ。

342 :名無しさん@お腹いっぱい。 (ワッチョイ fcd2-MTuc):2016/08/14(日) 08:19:13.96 ID:K3dGTcF40.net
>>340
cpuってこんな時間かかんのかワロタ

343 :名無しさん@お腹いっぱい。 (ワッチョイW 6149-3Vwo):2016/08/15(月) 14:04:20.97 ID:Gj8QJ9x30.net
中古のスリムデスクトップの240Wですが750Ti載りますか?
今は5570です

344 :名無しさん@お腹いっぱい。 (ワッチョイ f6e1-MTuc):2016/08/15(月) 16:08:32.93 ID:u7Yq65wf0.net
載るけどCUDA目的ならPICE3対応してるのかマザボのスペックを確認されたし
5570はPCIE2でしょ?
2用に3用を載せても下位速度で動いて本来の速度が出いならあまり意味ないし

345 :名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc):2016/08/15(月) 17:35:49.02 ID:mNG+BBBj0.net
750tiは消費電力はさほど気にしなくてもいい。大したことない。補助電も特に要らない。
2スロット分の厚みがいけるなら俺も使っているクロシコのGF-GTX750Ti-LE2GHDが良い感じ。
負荷時でも静かで熱も神経質にならなくてもいいレベル。もちロープロ対応。

1スロしか駄目な場合はELSAとかがあるがやや高くてこれはロープロダメ。
他の人の回答待ち。730とかならあるのかなー?

346 :名無しさん@お腹いっぱい。 (ワッチョイ fc5d-MTuc):2016/08/15(月) 17:43:08.47 ID:mNG+BBBj0.net
帯域による減速は事実としてあるけど、そこまで大きな差は出にくいと推測してみる。
3Dグリグリと違い使用メモリも数GBとか使うわけでも無いし。
帯域を使用する一番の浪費はメモリでしょ。
嫁2xはPCIExpress帯域関連に神経質にならなくて良いと電波してみるよ。

347 :名無しさん@お腹いっぱい。 (ワッチョイ 7cb5-gQqU):2016/08/31(水) 14:54:01.77 ID:aBASHfO90.net
これすげー。ウィンドウズのパソコンで使えるようにしてくれー

深層学習でドット絵のような荒い写真を高画質化できるプログラムがGitHubに公開
http://pc.watch.impress.co.jp/docs/news/1017571.html
http://pc.watch.impress.co.jp/img/pcw/docs/1017/571/01.png

348 :名無しさん@お腹いっぱい。 (ワッチョイ a0eb-/t5E):2016/08/31(水) 17:23:14.73 ID:tTltoSK70.net
つかえるだろ

349 :名無しさん@お腹いっぱい。 (ワッチョイ dee2-gQqU):2016/08/31(水) 17:26:33.81 ID:JHqzk+Ql0.net
証明写真みたいな画像限定のようだが
実用性は?

350 :名無しさん@お腹いっぱい。 (ワッチョイ 8039-hF2y):2016/08/31(水) 17:31:27.09 ID:ghbHSoMs0.net
元の画像と印象変わっちゃうけどそれっぽくでっちあげてるね

351 :名無しさん@お腹いっぱい。 (ワッチョイ 3d7c-gQqU):2016/08/31(水) 17:31:42.96 ID:z2XkjsyX0.net
ほぼ別人だが不気味の谷になってないのはすごい
将来はSF映画でよく見る監視カメラ拡大とかも出来るようになるんだろうなぁ

352 :名無しさん@お腹いっぱい。 (ワッチョイ 7cd6-gQqU):2016/08/31(水) 17:43:57.39 ID:XOd6q/8e0.net
もはや別人じゃねーかw 当たり前の結果だけども

353 :名無しさん@お腹いっぱい。 (ワッチョイ 7cb5-gQqU):2016/08/31(水) 18:11:45.69 ID:aBASHfO90.net
>>348
フロントエンド作ってくれー。オッパイモードとかも欲しい。

354 :名無しさん@お腹いっぱい。 (ワッチョイ 7a6d-k0vn):2016/08/31(水) 18:33:08.50 ID:5aJAq/qJ0.net
AVのモザイクに対して処理したらどうなるんだろう、とゲスな事を考えてしまったw

355 :名無しさん@お腹いっぱい。 (ワッチョイ 7f5d-gQqU):2016/08/31(水) 18:39:36.25 ID:RNequdjc0.net
みんな息ふき替えしたかのようにレスしててワロ

356 :名無しさん@お腹いっぱい。 (ワッチョイ a344-gQqU):2016/08/31(水) 19:26:57.78 ID:ub1nr2q10.net
類似データで埋めるって感じか
モザイク除去が捗るな

357 :名無しさん@お腹いっぱい。 (ワッチョイW 6e8b-W75L):2016/08/31(水) 19:36:42.08 ID:k9FwYtUp0.net
学習データによっては実用性がありそうだな

358 :名無しさん@お腹いっぱい。 (ワッチョイ 7e69-gQqU):2016/08/31(水) 19:40:47.54 ID:ulWjFzeq0.net
16×16ドット → 64×64ドット
GTX 1080で3時間だとよw

359 :名無しさん@お腹いっぱい。 (ワッチョイ 6d32-gQqU):2016/08/31(水) 19:58:07.92 ID:TyCiUy8i0.net
> This particular example was produced after training the network for 3 hours on a GTX 1080 GPU, equivalent to 130,000 batches or about 10 epochs.
英語わからんけど学習に3時間じゃ?

360 :名無しさん@お腹いっぱい。 (ワッチョイ d59d-gQqU):2016/08/31(水) 20:00:53.35 ID:apIEx6eH0.net
ドット絵というと xBRZ の上位変換か?! と期待したけど
「GTX 1080で3時間」はつらすぎる……

361 :名無しさん@お腹いっぱい。 (ワッチョイ 8199-12yH):2016/08/31(水) 22:10:57.99 ID:VxNgffX00.net
スッピン化しててワラタw

362 :名無しさん@お腹いっぱい。 (ワッチョイW 477c-bl/H):2016/09/01(木) 00:32:03.04 ID:29xlAkds0.net
以前のソニーのテレビに搭載されていたDRCのディープラーニング版みたいだね。
元の画像をいじくるより置き換えたほうが溶けなくていいのかも。

363 :名無しさん@お腹いっぱい。 (ワッチョイ 6fe2-wh/5):2016/09/01(木) 01:54:24.98 ID:hVMajEDe0.net
監視カメラの粗い画像から犯人像を復元するのに使えそうだな
しかしかなり違う顔になったりするので冤罪のもとにもなりそうだ

364 :名無しさん@お腹いっぱい。 (ワッチョイ 67d7-eWV5):2016/09/01(木) 02:15:33.23 ID:pXg/9Tx30.net
>>347
科捜研の超解像技術が現実に…

365 :名無しさん@お腹いっぱい。 (ワッチョイ 3332-OBkd):2016/09/01(木) 04:17:07.63 ID:gdGgHeTp0.net
30年以内には下手な絵をプロのイラストレーターが書いたような絵に変換するプログラムが出そう

366 :名無しさん@お腹いっぱい。 (ワッチョイ 7315-wh/5):2016/09/01(木) 11:48:07.29 ID:3YqH18Y40.net
>>365
今、映画「シン・ゴジラ」ファン界隈で流行ってる○○調似顔絵とかソフトウェアが勝手にやってくれるようになると思う。
http://image.eiga.k-img.com/images/buzz/59900/a9b73721ebe711a6/320.jpg
http://buzz-netnews.com/wp-content/uploads/2016/08/639826a2fa230071f44d06266e2fc5b1.jpg

367 :名無しさん@お腹いっぱい。 (ワッチョイ 7315-wh/5):2016/09/01(木) 13:35:55.74 ID:3YqH18Y40.net
こういう絵画も写真調にしちゃうんだろうか。
http://kaoruko-trend.blog.so-net.ne.jp/_images/blog/_9d1/kaoruko-trend/m_2005-06-24.jpg

368 :名無しさん@お腹いっぱい。 (ワッチョイ 6799-kcnE):2016/09/02(金) 07:11:39.11 ID:akMl2GII0.net
ネットじゃモザイクを解除できると思ってる奴多くてワロタ
モザイクの処理はドット混ぜてたり位置換えてたりするから無理po

369 :名無しさん@お腹いっぱい。 (ワッチョイ 6fe2-wh/5):2016/09/02(金) 11:02:27.60 ID:zmGVEAZp0.net
してるのとしてないのがあるし

370 :名無しさん@お腹いっぱい。 (ワッチョイ 5f5e-wh/5):2016/09/02(金) 12:56:10.35 ID:2rppqSTy0.net
昔画像に可逆的なマスクかけるソフトがあったなw

371 :名無しさん@お腹いっぱい。 (ワッチョイ 73f0-wh/5):2016/09/05(月) 19:40:58.30 ID:HkAh0Dw50.net
全層畳込みニューラルネットワークによるラフスケッチの自動線画化
http://hi.cs.waseda.ac.jp:8081/

使い方

1 「ファイルを選択」ボタンを押し、線画化したい画像を選択してください。
2 線画の簡略度を設定してください。
3 「線画化!」ボタンを押すと、線画化した結果が下の方に表示されます。

★システムの改善にご協力ください!★

現在のシステムはまだまだ発展途上であり、みなさんのラフスケッチをAIに学習させることでさらに精度が上がっていきます。ぜひシステムの改善にご協力ください。

372 :名無しさん@お腹いっぱい。 (ワッチョイ e79d-wh/5):2016/09/05(月) 20:44:07.84 ID:ncyZk6yB0.net
>>371
ラフが線画になる時代が来たのか……
クソのようなカラー版じゃなくて、
矢吹絵を石恵塗りで色付き生成するのもきっと時間の問題だな、胸熱すぎる

373 :名無しさん@お腹いっぱい。 (ワッチョイ 6fe2-wh/5):2016/09/06(火) 14:57:47.61 ID:cnJtRy+R0.net
ラフっていうかアタリ程度だとまともな絵にはならないね
そりゃそうか

374 :名無しさん@お腹いっぱい。 (ワッチョイ 5fda-wh/5):2016/09/06(火) 20:05:04.36 ID:MFy5hrF30.net
HUNTER×HUNTERやBastardの雑誌版がコミックス版に!

375 :名無しさん@お腹いっぱい。 (ワッチョイ 9387-tq+X):2016/09/08(木) 21:37:18.46 ID:pimDce810.net
アカン、富樫がさらに怠けてまう

376 :名無しさん@お腹いっぱい。 (ワッチョイ c132-tq+X):2016/09/08(木) 23:11:04.46 ID:3XEPh2rd0.net
トーンとかベタの学習難しそうw

377 :名無しさん@お腹いっぱい。 (キュッキュ e6e2-tq+X):2016/09/09(金) 16:13:10.17 ID:bHeHK16U00909.net
ラフというかわりと完成した鉛筆画ならそれなりにいけそうな気がするねぇ
学校で描いた落書きとか突っ込んでみれば

378 :名無しさん@お腹いっぱい。 (キュッキュ d099-sMwW):2016/09/09(金) 20:59:58.26 ID:kjPCajQ000909.net
てか富樫のラフ画をもとに処理して見せればいかにすごいかわかるんじゃね

379 :名無しさん@お腹いっぱい。 (ワッチョイ fba1-UKYW):2016/09/11(日) 15:59:53.99 ID:R2SaEzoR0.net
waifu2x-caffe ver 1.1.7.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.7.1

GUI版にアイコン追加
crop_wとcrop_hが違う値の時にTTAモードを使うと出力がおかしくなるバグを修正

380 :名無しさん@お腹いっぱい。 (ワッチョイ fb5d-tq+X):2016/09/11(日) 16:26:22.03 ID:vpaofvjM0.net
>>379
ついに自作のコーヒーカップ・アイコンとお別れの日が来たか・・・

381 :名無しさん@お腹いっぱい。 (ワンミングク MMbf-NmdU):2016/09/18(日) 20:37:37.26 ID:HtW6SWx/M.net
waifu2x caffeでjpegをpngにした場合
waifu側でRGBに補完してpngで吐き出してくれるのですか?
それともYUVで処理した後単純なRGB変換をしてるのですか?

382 :名無しさん@お腹いっぱい。 (ワッチョイ d7d2-tQpF):2016/09/22(木) 14:59:25.14 ID:pvC1fAbc0.net
>>381
画像を読み込んだ時点でRGBになってwaifu2xで処理して結果をPNGで保存
ノイズ除去ありだとYUV4:2:0のクロマサブサンプリングもwaifu2x側である程度修復される

383 :名無しさん@お腹いっぱい。 (ワッチョイ 0ee1-5q76):2016/09/22(木) 15:05:31.06 ID:grDO1t9h0.net
フォトモデルがYUV処理なんだと思ってた
(´・ω・`)違うのか・・

384 :名無しさん@お腹いっぱい。 (ワッチョイW 99ad-U20I):2016/09/23(金) 00:36:37.52 ID:ULFrB3kZ0.net
This website is hosted by the server of pixiv Inc
いつの間にやら

385 :名無しさん@お腹いっぱい。 (ワッチョイW 99ad-U20I):2016/09/23(金) 00:38:45.22 ID:ULFrB3kZ0.net
http://drawr.net
こことおなじIP

386 :名無しさん@お腹いっぱい。 (ワッチョイ 8039-cdMz):2016/09/23(金) 01:14:54.91 ID:RWE7EzK40.net
pixivの援助を受けはじめたのかな

387 :名無しさん@お腹いっぱい。 (ワッチョイ d7d2-tQpF):2016/09/23(金) 03:23:03.25 ID:T/2Nhf4Y0.net
今のところwaifu2x.udp.jpの接続先をEC2からピクシブ様が提供されている環境に切り替えた以上の意味はないです。
githubのwebブランチからデプロイするようにして頂いています。(広告等は追加されるかもしれません)
サーバー代とたまに落ちる問題は解決したんじゃないかと思います。
回線やハードウェアも以前よりいいと思います。

388 :名無しさん@お腹いっぱい。 (ワッチョイ 88e2-PW2+):2016/09/23(金) 03:23:09.35 ID:Y2UL0mT70.net
鯖うつしたのかな?

389 :名無しさん@お腹いっぱい。 (ワッチョイ 88e2-PW2+):2016/09/23(金) 03:23:53.04 ID:Y2UL0mT70.net
わーびっくりした
なるほどね

390 :名無しさん@お腹いっぱい。 (ワッチョイW 80e6-xdvH):2016/09/26(月) 02:13:17.42 ID:69hP3vNm0.net
multiっていちいちimgurにうpしてんのか?消せないの?

391 :名無しさん@お腹いっぱい。 (ワッチョイ 88e2-PW2+):2016/09/26(月) 13:10:18.69 ID:LOgjLQVp0.net
>>390
つ 削除要請

392 :名無しさん@お腹いっぱい。 (ワッチョイ fc5b-5q76):2016/09/26(月) 15:17:59.26 ID:m08Vz01s0.net
簡単な線を引くだけで自動で画像を生成してしまう「iGAN」がスゴイ
http://gigazine.net/news/20160926-igan/
iGANでどんなことができるのかを端的に現わしたのが以下の図。
http://i.gzn.jp/img/2016/09/26/igan/s01.png

393 :名無しさん@お腹いっぱい。 (ワッチョイ d7d2-tQpF):2016/09/27(火) 18:50:05.35 ID:sSRb+qEN0.net
>>390
ファイルのURLを持ってるのは確かだけど、imgurにうpしているようには見えないけど
どうしてそう思いました?

394 :名無しさん@お腹いっぱい。 (ワッチョイW ae8b-Zv6o):2016/09/27(火) 19:38:18.18 ID:pNtkjlrq0.net
そういえば、アニメの輪郭線問題ってどうなったの?

395 :名無しさん@お腹いっぱい。 (ワッチョイW 59e6-xdvH):2016/09/27(火) 19:58:31.55 ID:UJb8XfhN0.net
>>393
クリックしたらi .imgur〜から始まるURLが見えた

396 :名無しさん@お腹いっぱい。 (ワッチョイ c6d3-lsIp):2016/10/07(金) 16:48:21.16 ID:/sntnc3p0.net
E8400で使ってみたら 1ページ辺り3分近くかかるな
i5-6600辺りに換装したら実用的になるかな?

397 :名無しさん@お腹いっぱい。 (ワッチョイ c387-lsIp):2016/10/07(金) 18:08:29.61 ID:cOmmgKXU0.net
安物でもいいからGPU

398 :名無しさん@お腹いっぱい。 (ワッチョイ c6d3-lsIp):2016/10/07(金) 22:34:24.32 ID:EEOkfHO00.net
GPUか AMD買う予定だったけどGeforceにしようかな

399 :名無しさん@お腹いっぱい。 (アウアウ Sac2-oEV5):2016/10/08(土) 11:34:42.30 ID:vdcelTt8a.net
GeForceをディープラーニング目的で買うなら最低でも8xx世代、できれば9xx世代を買うべし

400 :名無しさん@お腹いっぱい。 (アウアウ Sac2-oEV5):2016/10/08(土) 11:35:20.00 ID:tmBt0+l9a.net
もちろん10xx世代も含む

401 :名無しさん@お腹いっぱい。 (ワッチョイW 5cb3-I7ip):2016/10/08(土) 15:57:18.55 ID:mUNKQ9VA0.net
vega買う予定だけど、このソフトにはあまり向かないのかな…

402 :名無しさん@お腹いっぱい。 (ワッチョイ 7039-JwEk):2016/10/08(土) 16:04:26.46 ID:zhZwX8dM0.net
Caffeがamdで動くようになるって話があったような気がするけど進捗はどうなのかな

403 :名無しさん@お腹いっぱい。 (ワッチョイ 7039-JwEk):2016/10/08(土) 16:40:36.33 ID:zhZwX8dM0.net
experimentalって書いてるしまだ先の話かね

404 :名無しさん@お腹いっぱい。 (ワッチョイ 0ed3-/1jq):2016/10/09(日) 12:04:39.02 ID:3zkBwPsK0.net
>>399
8xxはノーパソ用だろ?
vramは多いけど処理性能は7xxより劣るのがな…。

405 :名無しさん@お腹いっぱい。 (ワッチョイ 98e2-f8l3):2016/10/09(日) 23:08:49.97 ID:lkNtoejG0.net
AMDならwaifu2x-converter-cppがある
まあ更新が止まってるけど

406 :名無しさん@お腹いっぱい。 (ワッチョイ aa20-lsIp):2016/10/12(水) 02:08:10.89 ID:DvgXjgYd0.net
>>405
これはマジでいいな
最初文字も出ないし変換してるかわからんほどやたら時間かかるから疑ったけど
最初だけで次回がスムーズで驚いたよ
使えるソフトだし更新してほしいな

407 :名無しさん@お腹いっぱい。 (ワッチョイ 6f91-La2u):2016/10/13(木) 00:34:06.01 ID:9gJSMmWd0.net
waifu2xの論文マダー?

408 :名無しさん@お腹いっぱい。 (ワッチョイ d739-c7dp):2016/10/14(金) 20:28:31.66 ID:p7wth0l90.net
waifu2x-caffe ver 1.1.8
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8

CUDA Toolkitを8.0.44に更新(同梱しているdllも更新)
cuDNN v5.1に対応
アルファチャンネルが単色の場合、cv::INTER_NEARESTで拡大することで高速化

409 :名無しさん@お腹いっぱい。 (ワッチョイ d739-c7dp):2016/10/14(金) 21:09:23.50 ID:p7wth0l90.net
意図せず無意味なアルファチャンネル情報が付いている画像の変換が早くなった模樣
ただtwitter形式で上げられてるpngは単色じゃないから変わらないねえ

410 :名無しさん@お腹いっぱい。 (ワッチョイW 835d-Mdxn):2016/10/15(土) 03:10:02.99 ID:ary+qlce0.net
CUDA使えなくなった
このバージョンの推奨ドライバって何になる?

411 :名無しさん@お腹いっぱい。 (ワッチョイ cf9d-8qPS):2016/10/15(土) 11:33:50.20 ID:K4B7brJK0.net
使えなくて一瞬焦った
推奨ドライバは知らないけどnVidiaのドライバを
368.81 → 373.06 にupdateして使えるようになって一安心

412 :名無しさん@お腹いっぱい。 (ワッチョイ 3b51-8qPS):2016/10/16(日) 12:12:23.85 ID:ZYUiLLZr0.net
tanakamura版使ってるんだけどCUDAで処理させようとするとこんなエラーが出るんだけど俺環?

Iteration #6(128->128)...(94.5009[ms], 310.326[GFLOPS], 1.07752[GB/s])
Iteration #7(128->3)...(10.8175[ms], 63.5389[GFLOPS], 4.81689[GB/s])
total : 0.218784[sec], 263.632[GFLOPS]
OpenCV Error: Unspecified error (could not find a writer for the specified extension) in imwrite_, file C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp,
line 439
terminate called after throwing an instance of 'cv::Exception'
what(): C:/OpenCV/sources/modules/imgcodecs/src/loadsave.cpp:439: error: (-2) could not find a writer for the specified extension in function imwrite_
This application has requested the Runtime to terminate it in an unusual way.
Please contact the application's support team for more information.

413 :名無しさん@お腹いっぱい。 (ワッチョイ 3b51-8qPS):2016/10/16(日) 12:16:28.49 ID:ZYUiLLZr0.net
原因はわからんが対処法はわかった
-o hogeはダメで-o hoge.pngは問題ない

414 :名無しさん@お腹いっぱい。 (ワッチョイW ebad-mGJj):2016/10/16(日) 12:29:18.64 ID:t79GHdGS0.net
拡張子指定しないとどの形式で出力したらいいのかわからないじゃん

415 :名無しさん@お腹いっぱい。 (ワッチョイ 3b51-8qPS):2016/10/16(日) 12:34:03.62 ID:ZYUiLLZr0.net
そういう問題なんです?
普通に全部pngで出てくるのかと思った

416 :名無しさん@お腹いっぱい。 (ワッチョイ ffac-8qPS):2016/10/19(水) 11:26:59.23 ID:1zIroVsL0.net
waifu2x-converter-cpp

AMD版の更新おねがいしまつ!

417 :名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os):2016/10/22(土) 18:31:29.33 ID:mx2PDzFg0.net
かなり久しぶりにみたら色々アップデートしててちょっと困惑してるんだが
bmpで出力する場合、以前は24bitだったが今のバージョンだと32bitになってるよね
これ前みたいに24bitのbmpで出力する方法ある?

418 :名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os):2016/10/22(土) 18:35:15.31 ID:mx2PDzFg0.net
ごめん
>>417はwaifu2x-caffeの話ね

419 :名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl):2016/10/22(土) 19:57:26.52 ID:fEyVsVpV0.net
>>417
もともとの画像が32bitとかではなくて?
こっちで24bitの画像を処理しても24bitになったよ

420 :名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl):2016/10/22(土) 20:28:48.85 ID:fEyVsVpV0.net
あ、いや24bitのbmpを処理したら32bitになるっぽい?

421 :名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os):2016/10/22(土) 20:39:09.10 ID:mx2PDzFg0.net
>>419-420
こっちで確認した結果はbmp入力→bmp出力だとほぼ確実に32bitになる
「ほぼ」というのはそうならないパターンもあったので

最初にjpg入力→bmp出力をやると24bitのbmpで出て
そのあと続けてbmp入力->bmp出力すると24bitのまま出た

最初からbmp入力→bmp出力だと32bitになる
分けわからん

あ、一応全部GUIでのwaifu2x-caffe使用によるもので、設定は以下の通り
出力拡張子「.bmp」
変換モード「ノイズ除去」
ノイズ除去レベル「レベル0」
モデル「2次元イラスト(RGBモデル)」
分割サイズ「128」

422 :名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl):2016/10/22(土) 20:49:51.82 ID:fEyVsVpV0.net
>>419
入力24bit png
出力 bmp
結果24bit bmp

>>420
入力24bit bmp
出力 bmp
結果32bit bmp

この動作は仕様なのかな?

423 :名無しさん@お腹いっぱい。 (ワッチョイ 2199-b5os):2016/10/22(土) 21:01:39.50 ID:mx2PDzFg0.net
ふむ、仕様かバグかしらんけどBMP→BMPでの24bit出力は無理そうかな
なんかコマンドラインからならオプションでできる、とかあったら知りたかったけどパッと見なさそうだし
大人しく出力後に別ソフトで変換するわ

424 :名無しさん@お腹いっぱい。 (ワッチョイ 1c9c-7LPj):2016/10/24(月) 01:50:33.33 ID:ZlIEeXn30.net
そういやwaifu2x、派生版もMITやBSDライセンスが多いけれど
コレ使ったスマホアプリを有料や無料+広告で出しても大丈夫なんだろか
実用速度にするならPrismaのように外部専用鯖が必要になるから動画広告でも付けたいんだよね

425 :名無しさん@お腹いっぱい。 (ワッチョイ fce9-AIfR):2016/10/24(月) 14:09:10.83 ID:PLW9ma850.net
Prismaは最近オフラインでも動作するようになった。

426 :名無しさん@お腹いっぱい。 (ワッチョイ 8039-JCRl):2016/10/24(月) 14:48:03.78 ID:Tv00xCEx0.net
>>424
それはもう、このスレに書き込むとかいう奥ゆかしいコミュニケーションじゃなくて作者に連絡取ったほうがいいんじゃないか

427 :名無しさん@お腹いっぱい。 (ワッチョイ fc35-AIfR):2016/10/24(月) 20:31:38.98 ID:J/6YAUIY0.net
>>424
全く問題ない
さらに言えばフォークしてそれ自体を売りに出しても構わない(要求された場合無料でなくてもいいがソースを出す必要があるが)

428 :名無しさん@お腹いっぱい。 (ワッチョイ 1787-AIfR):2016/10/24(月) 22:42:16.55 ID:oIHJY+tR0.net
>427
GPL汚染されてないのにソース出す必要あるの?

429 :名無しさん@お腹いっぱい。 (ワッチョイ 2297-AIfR):2016/10/24(月) 23:12:55.18 ID:V2/WuydK0.net
>>428
すまん、GPLの場合はそうだったね
BSDとかMITならいらない

430 :名無しさん@お腹いっぱい。 (ワッチョイ fb91-5+P/):2016/10/27(木) 19:02:40.13 ID:/mmrCNGh0.net
実際作者はどのくらい儲かったのか気になるな

431 :名無しさん@お腹いっぱい。 (ワッチョイ 8739-nZcI):2016/10/27(木) 19:37:21.88 ID:3BsAGMNE0.net
赤字じゃろ

432 :名無しさん@お腹いっぱい。 (ワッチョイ e364-corf):2016/10/27(木) 20:16:00.47 ID:nEwOdHdh0.net
http://i.imgur.com/xtsSXu8.jpg

433 :名無しさん@お腹いっぱい。 (ワッチョイ 7bb4-0DI1):2016/10/27(木) 22:29:05.50 ID:DHAG/L+X0.net
黒字の間しか鯖動かしてないんじゃなかったっけ
トータルではどうなのか知らんが

434 :名無しさん@お腹いっぱい。 (ワッチョイ d7d2-0DI1):2016/10/28(金) 08:26:51.72 ID:x25NJOMQ0.net
>>432
将来有望なボトラーだな

435 :名無しさん@お腹いっぱい。 (ワッチョイW 53f9-Jz20):2016/10/28(金) 13:24:51.84 ID:sangDm780.net
ロリポ法に引っかかる写真じゃないのか?

436 :名無しさん@お腹いっぱい。 (ワッチョイ d70f-GC0b):2016/11/01(火) 01:09:19.68 ID:PwTB2CzY0.net
Reshadeってどうなの?
写真の拡大には良さそうだが

437 :名無しさん@お腹いっぱい。 (ワッチョイ 57b5-0DI1):2016/11/01(火) 12:41:44.14 ID:rGOjCzh+0.net
>>436
ポスターみたいに大きく印刷したいときかな。

438 :名無しさん@お腹いっぱい。 (ワッチョイ 7b9d-8n5s):2016/11/08(火) 06:32:18.87 ID:8JXudXNa0.net
http://www.itmedia.co.jp/news/articles/1611/07/news119.html
「わしが育てた」なやり方が取れるのか
組織だって重点的に応募すれば好みのタッチに近付くのかな? 弾かれるのかな?
どっちにしても楽しそう

439 :名無しさん@お腹いっぱい。 (ワッチョイ f039-fyEo):2016/11/08(火) 14:11:37.76 ID:jWw7B6CU0.net
白黒写真の着色技術をイラストにも応用するのかな。某嫁2倍みたいだ。

440 :名無しさん@お腹いっぱい。 (ワッチョイW ba8c-m5qj):2016/11/09(水) 03:30:07.07 ID:hyCn3erA0.net
GIGAZINEにも先日モノクロ写真を自然なカラー写真にしてくれる研究のってたな
こりゃ2020年までには女性の水着写真を入力→その人の全裸画像出力まで行くと思った
DMMのAVパッケージからの顔写真やFBの顔写真の検索サービス売ってる人もいたしな
倫理的にこれやっていいのかって画像処理、
データ処理、データベース化が出てくるだろうね
今のビッグデータでさえプライバシー倫理的にどうなのって話でもあるが
倫理的にアウトなやつはコードで配布って形になる予感

441 :名無しさん@お腹いっぱい。 (ワッチョイ f7a1-WVKM):2016/11/10(木) 19:03:16.68 ID:dIlzLCb/0.net
今まで通り個人の範疇で何をしようがそりゃ個人の自由よww
メーカー側が売ることが出来るかできないかはそりゃコマーシャル方法によるだろうなw
「水着の女を裸にできます」なんてコマーシャルじゃ確実にアウトwww

442 :名無しさん@お腹いっぱい。 (ワッチョイ 0ff3-5NgJ):2016/11/11(金) 02:45:39.70 ID:9qH54OVf0.net
ikorageの配布元が消えてる…

443 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-cYps):2016/11/15(火) 13:48:33.70 ID:UlmxwCUD0.net
Googleが低解像度画像を爆速で高画質化する機械学習を使った技術「RAISR」を発表 - GIGAZINE
http://gigazine.net/news/20161115-google-resarch-raisr/

444 :名無しさん@お腹いっぱい。 (アウアウアー Sa1f-QaFr):2016/11/15(火) 14:09:45.93 ID:tmMc38MOa.net
超解像は、リアルタイムで進行している。

ピッドーン、ピッドーン…

445 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-cYps):2016/11/15(火) 14:13:39.18 ID:UlmxwCUD0.net
論文読んだかんじPSNRやSSIMはSRCNNより落ちるけど処理速度は圧倒的に早いな
SRCNNが数秒かかるところを0.1秒以下で出来てるっぽい(グラフ見間違えてなければ)

446 :名無しさん@お腹いっぱい。 (ワッチョイW e7cf-9MLS):2016/11/15(火) 16:06:21.30 ID:FV8UZR3G0.net
ワイフは2次元特化しかこの先生きのこる術はないのか

447 :名無しさん@お腹いっぱい。 (ワッチョイ 576a-teht):2016/11/15(火) 16:17:39.32 ID:0ngnQcTC0.net
今後はデコードでなく、補間に適した方法で圧縮した小サイズの画像を転送して
モバイル端末側で拡大処理をするようなサービスも出てくるかもね
バッテリー持ちと帯域とのトレードオフになるだろうけどw

448 :名無しさん@お腹いっぱい。 (ワッチョイ 97a4-teht):2016/11/15(火) 18:41:26.50 ID:FV4OX9Su0.net
>>447
「高圧縮率だが展開に負荷がかかる新しい圧縮フォーマット」と何が違うのか

449 :名無しさん@お腹いっぱい。 (ワッチョイW 6fb3-nbRD):2016/11/15(火) 19:16:21.53 ID:c8ZQtT620.net
>>446
その2次元絵もアプコンでは境界線が溶けてて使い物にならないんだけどな
RAISRのベンチ次第では本格的にいらない子になるわ

450 :名無しさん@お腹いっぱい。 (ワッチョイ 576a-teht):2016/11/15(火) 19:20:44.51 ID:5ND97o9T0.net
>>448
画像(動画)であれば全て対応可能な点と
マシンラーニング結果で精度の向上が見込める点か

451 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-cYps):2016/11/15(火) 19:28:49.71 ID:UlmxwCUD0.net
処理速度が発表通りなら確かに動画のアプコンも現実的な範疇かな

452 :名無しさん@お腹いっぱい。 (ワッチョイ 1721-REx9):2016/11/15(火) 23:44:55.89 ID:YYXeIyPo0.net
これweb版はpixivのサーバーで動いてるんだな

453 :名無しさん@お腹いっぱい。 (ワッチョイWW 4f7c-QaFr):2016/11/16(水) 01:28:53.03 ID:vMIkzin30.net
>>443
どこかでテストできるサイトはないのかな?
あるいはwaifu2xに「同じ写真のアップサンプリング版と高解像度版」のセットを学習に使用するの部分だけでも組み込んで、速度はともかく画質向上ができればとも思うけど

454 :名無しさん@お腹いっぱい。 (ワッチョイW e7cf-9MLS):2016/11/16(水) 05:20:16.47 ID:72HKYFC/0.net
2030年、日本人がモザイクを無修正にする技術を発明する

455 :名無しさん@お腹いっぱい。 (ラクッペ MM33-wOPQ):2016/11/16(水) 10:45:19.54 ID:ni5Hu/5nM.net
>>454
US:モザイクってなんだ?

456 :名無しさん@お腹いっぱい。 (ワッチョイ 6f4d-teht):2016/11/16(水) 12:10:01.25 ID:TWFcW6Ex0.net
>>453
無い

457 :名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-fWEv):2016/11/16(水) 19:32:16.85 ID:uZcFhIHi0.net
>>453
Set5,14の結果が論文に載っているけどwaifu2xの写真モデルよりだいぶ低いです。
Bicubicよりマシな結果で速度に特化している感じだと思う。

458 :名無しさん@お腹いっぱい。 (ワッチョイ 576a-teht):2016/11/16(水) 19:52:31.28 ID:4aJT7KUt0.net
写真で言えば、現状木の葉の重なりとか
同系色の小石及や砂漠の処理が難しいな
サンプル食わせても、思ったように描画してくれない

459 :名無しさん@お腹いっぱい。 (ワッチョイW 1732-wOPQ):2016/11/16(水) 19:55:59.77 ID:HEIE/29H0.net
みんな論文読んだ?
読んだ範囲だと選択的に
デシタルフィルタで輪郭強調してるだけっぽいけど
表現力とかreceptive fieidはかなり
waifu2xの方が大きい

ただ家電組み込みとかは有利そう

460 :名無しさん@お腹いっぱい。 (ワッチョイ bf6d-YIW3):2016/11/16(水) 21:42:25.30 ID:cC8uL87B0.net
昔からよくある超解像のエッジ強調でボケ低減重視した結果
テクスチャ成分が消えて油絵見たいになる奴だな
今までは反復で処理してたのを1回?なんで速度が速いみたいな
あとで元画像の高周波成分に応じたディザ加えると視覚上はそれっぽく見えるようなの

461 :名無しさん@お腹いっぱい。 (ワッチョイ bf91-m2xO):2016/11/16(水) 21:50:26.19 ID:NXjeS7A10.net
https://twitter.com/personasama/status/781839302791532544

ディープラーニングは詳しく無いんだけど、
マンガのコマを入力にしてこういう動画を出力させることって出来ますか?

462 :名無しさん@お腹いっぱい。 (ワッチョイW f7cf-iUf6):2016/11/16(水) 21:51:54.96 ID:mDwWgKfI0.net
余裕

463 :名無しさん@お腹いっぱい。 (ワッチョイ 4fe2-Ctj4):2016/11/17(木) 06:17:49.45 ID:SigrQOB30.net
あぁwaifuより溶けてねーかと思ったのはあながち間違ってなかったのか

464 :名無しさん@お腹いっぱい。 (アウアウエー Sa4f-GWT6):2016/11/17(木) 22:15:42.90 ID:naiHg0fia.net
>>457
論文のままやるのではなく、waifu2x流に 「同じ写真のアップサンプリング版」と「(今までのモデルデータと同じ)高解像度版」の2パターンのモデルデータを作成して、
それぞれで超解像処理したあとに部分ごとにいいとこ取りするとかではダメなの?

465 :名無しさん@お腹いっぱい。 (ワッチョイ 4fe2-Ctj4):2016/11/18(金) 13:33:46.27 ID:by0IP/QY0.net
koroshellのコンバータをcppに変えたら速くなった!
気がする

466 :名無しさん@お腹いっぱい。 (ワッチョイW b7f9-RUi6):2016/11/18(金) 13:49:44.70 ID:+onBe1T00.net
プラーシボウ公開です。

467 :名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-Dnyy):2016/11/19(土) 13:56:59.27 ID:FbdjsfyA0.net
madVRにNGU (Next Generation Upscaling)というのが入ったらしいので
動画に詳しい方はレポートをおねがいします。

468 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO):2016/11/19(土) 14:18:38.38 ID:GoobHDYL0.net
madVRスレに比較画像ありました

madVR Part8 ©2ch.net
http://potato.2ch.net/test/read.cgi/software/1469289290/404

404 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2016/11/05(土) 22:15:28.64 ID:FYlCTwMn0
http://forum.doom9.org/showthread.php?p=1784964#post1784964
新アルゴリズムはまだ時間かかりそうだが、比較画像がでてきた
NG1がmadshiの新アルゴリズム、Waifu2xは比較用でリアルタイムでは使用できない
http://madshi.net/madVR/AmericanDad/AmericanDadOrg.png
http://madshi.net/madVR/AmericanDad/AmericanDadJinc.png
http://madshi.net/madVR/AmericanDad/AmericanDadNNEDI256SR4.png
http://madshi.net/madVR/AmericanDad/AmericanDadNG1.png
http://madshi.net/madVR/AmericanDad/AmericanDadWaifu2x.png

469 :名無しさん@お腹いっぱい。 (アウアウアー Sa1f-GWT6):2016/11/19(土) 15:13:42.49 ID:nJTgS5yva.net
実写でやってくれないとよくわからんぞ…

470 :名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-Dnyy):2016/11/19(土) 16:15:24.16 ID:FbdjsfyA0.net
Jincはぼやけすぎ
NNEDIはリンギングがひどい (ただ元の画像に入っているのでシャープにするときに強調してしまっているのかも)
NGUとwaifu2xはぱっと見同じに見えるけど線だけ見るとwaifu2xのほうくっきりしているのと
左の女性の口周りの色のにじみなどが消えているというのが自分の感想です。(このwaifu2xはノイズ除去あり?)
これでwaifu2xの100倍速いならすごくいいんじゃないでしょうか。

あと
>madVR v0.91.0
>* added new NGU (Next Generation Upscaling) algorithm
とあるのでもう入ってると思います。

471 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO):2016/11/19(土) 16:21:10.15 ID:GoobHDYL0.net
>>469
実写だとこれ
http://forum.doom9.org/showthread.php?p=1785599#post1785599

NGUは輝度のみの拡大で、色差はBicubic60で拡大している模樣
面白そうだけどうちの低スペPCじゃmadVRは無理だなあ

472 :名無しさん@お腹いっぱい。 (ワッチョイ 6f48-XpIe):2016/11/19(土) 16:21:54.60 ID:teVDYV6E0.net
動画のキレイな拡大ならMPDNてのもオススメ。openclに対応してる。

473 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO):2016/11/21(月) 19:33:59.35 ID:v70Y0tAf0.net
BSD100 x2

PSNR 28.599 SSIM 84.309 Lanczos3
PSNR 28.729 SSIM 83.971 NNEDI3
PSNR 29.721 SSIM 87.238 SRCNN
PSNR 30.071 SSIM 87.456 NGU
PSNR 30.081 SSIM 87.471 waifu2x_Photo
PSNR 30.292 SSIM 87.885 waifu2x_UpPhoto

評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に

思いのほかNGUのスコアが高くなって困惑
madVRの開発者がNGUはGoogle RAISRより優れていると豪語してたけどマジかもしれない

474 :名無しさん@お腹いっぱい。 (アウアウエー Sa4f-GWT6):2016/11/21(月) 20:29:10.26 ID:8IXPzx3ea.net
NGU、恐ろしい子!
ただ原理的なことがさっぱりわからんけど。
というか、静止画で手軽に試す手段とかあるの?

475 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-lRaO):2016/11/21(月) 20:43:35.85 ID:v70Y0tAf0.net
>>474
> というか、静止画で手軽に試す手段とかあるの?

無いと思う。
MPC BEにpngを読み込ませてスクリーンショット撮影っていうのをひたすら繰り返した。
NNEDI3みたいにプラグイン形式で使うことが出来れば楽なのだが。

476 :名無しさん@お腹いっぱい。 (ワイモマー MM87-DGos):2016/11/21(月) 20:49:31.60 ID:q5eJiKkPM.net
さすがに画質ではwaifu2xにはあと1歩及ばないけど
動画をリアルタイムに拡大処理可能な速度でこれは凄いな

477 :名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-Dnyy):2016/11/21(月) 22:56:47.72 ID:69aqH2zp0.net
>>473
>評価コードのせいか相変わらずPSNRの数値が論文のものとは違うので参考程度に
超解像の論文でよく使われているPSNRと書かれている再現できない謎の評価指標は
輝度だけのPSNRなのですが
MATLABの実装由来で輝度を16-235の範囲の整数にしたあとにMSEを計算しているため通常のPSNRより高くなっています。
(また縮小に使うアルゴリズムはBicubicに固定します。
waifu2xのtools/benchmark.luaで-filter Catrom -range_bug 1にした時にこの評価指標を再現できます)
この評価指標を使っている場合は、BicubicのPSNRが高いので見分けが付きます。
RAISRはSRCNNよりもPSNRは低いと書いてあるのでNGUはRAISRよりも高いと思います。

478 :名無しさん@お腹いっぱい。 (アウアウエー Sa4f-GWT6):2016/11/22(火) 20:59:13.01 ID:+jtRMRs7a.net
NGUの演算時間を延ばしていいから、もっと高精度に演算させるオプションとかないものなのか?
あるいは先日の例に習って
従来型waifu2xとNGUのいいとこ取りとか

479 :名無しさん@お腹いっぱい。 (ワッチョイW 3753-CJWN):2016/11/23(水) 08:59:40.21 ID:Lehn7eyt0.net
これはすげえな…
久々にハイエンドグラボ買うか

480 :473 (ワッチョイ bf39-Yhbf):2016/11/25(金) 02:32:42.55 ID:Bfwfyes20.net
>>477
詳しい説明ありがとうございます。
MATLABもLuaも導入難易度が高そうだったのでWindowsで簡単に扱えるソフトで良いものが無いか探したところ、FFmpegを使えばだいたい同じような値が出ることが分かりました。
これでデータセットの中に縮小済みの画像が入っているものに関しては割と近い感じの数字が出せるかもしれません。

BSD100 x2

Y-PSNR 29.553 bicubic
Y-PSNR 29.917 Lanczos3
Y-PSNR 30.066 NNEDI3
Y-PSNR 31.096 SRCNN
Y-PSNR 31.190 SelfExSR
Y-PSNR 31.397 NGU
Y-PSNR 31.417 waifu2x_Photo
Y-PSNR 31.627 waifu2x_UpPhoto

481 :名無しさん@お腹いっぱい。 (ワッチョイ 77d2-CHYl):2016/11/25(金) 22:57:57.27 ID:wsdFYFZc0.net
>>480
Bicubic, waifu2x_Photo, waifu2x_UpPhotoのスコアは手元と大体同じです。(差が0.01程度)
SelfExSRは2年くらい前にstate of the artと言っていたものなので
処理時間の制限つけた上でそれを超えてるのはすごいですね
もっと遅くしてよいという条件でどこまで上げれるのか気になる

482 :名無しさん@お腹いっぱい。 (ワッチョイ 7764-znN9):2016/11/28(月) 19:21:55.57 ID:bX62daeg0.net
http://i.imgur.com/GvD97ih.jpg

483 :名無しさん@お腹いっぱい。 (ワッチョイW 9dcf-JQwj):2016/11/28(月) 20:24:16.40 ID:F0CAB6jW0.net
読唇術もコンピュータ処理の時代か
インチキ読唇術者ざまあ

484 :名無しさん@お腹いっぱい。 (ワッチョイ 5b91-VyTH):2016/12/08(木) 14:28:01.71 ID:qFG9JG4v0.net
動画対応期待age

485 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-rCEc):2016/12/08(木) 19:17:12.07 ID:Y+k4cziV0.net
ICCプロファイルのサポートもするらしい

Don't ignore color profile · Issue #158
https://github.com/nagadomi/waifu2x/issues/158#issuecomment-265580773

486 :名無しさん@お腹いっぱい。 (ワッチョイ 716a-drn7):2016/12/09(金) 15:57:16.96 ID:dkacw0nd0.net
PSNR値は視覚及び脳内での判定と一致しないんだよな
元写真を縮小→拡大テストで見比べると、SRCNN等は微妙と言うか
人間的感性も数値化できればいいんだが

そいや市販ソフトのPIXEL MASTERは昔使ってみたが(性能は微妙なところ)
今は公式ツイッターさえSpamBOTにのっとられてる有様だなw

487 :名無しさん@お腹いっぱい。 (ワッチョイ e5d2-jbjz):2016/12/10(土) 00:19:42.16 ID:hDKiBCZm0.net
PSNRを高くにするは、ほとんど同じ入力から拡大結果が異なるようなときに
それらの平均を出力したほうが有利で、平均というのは無難だけどどの正解にも近くないので違和感を感じやすいと言われています。
人の感覚に近いものとして、Perceptual LossやGANを使ったモデルが出ていて
これは、拡大結果の違和感は少ないけど、元画像とは近くならないです。
(PSNRは低い、ぼやけている部分を強調したり、元画像とは異なるテクスチャを追記したりする)
ただ写真ではかなりすごい結果が出ています。
https://arxiv.org/abs/1609.04802(画像だけでも見る価値があると思う)

488 :名無しさん@お腹いっぱい。 (ワッチョイ 5389-+CJx):2016/12/10(土) 00:29:51.46 ID:SKbSNzE30.net
>>484
面白いのがあったよ
実際使えるかわからんけども
http://shimarisu.webcrow.jp/su_resol.html

489 :名無しさん@お腹いっぱい。 (ワッチョイ 4115-drn7):2016/12/10(土) 11:48:30.46 ID:l2pj7+Te0.net
>>488
これは使える。良い。

490 :名無しさん@お腹いっぱい。 (ワッチョイ dd44-drn7):2016/12/10(土) 13:42:59.29 ID:QUqj3HOP0.net
そこに書いてある
>24Mbps、29.97fpsのFHDを4kに拡大してみました。
>・インターレースソースの問題(プログレッシブ化)。
>・音声のずれ。
>・かえって画質が劣化した。
>と感じています。

これは数字から推測するにBSを録画したTSファイルやろな

491 :名無しさん@お腹いっぱい。 (ワッチョイ 5b91-VyTH):2016/12/11(日) 21:12:36.54 ID:bCV3NUNX0.net
中学生ぐらいが作ったサイトっぽいな(俺も作ったわぁ)

492 :名無しさん@お腹いっぱい。 (ワッチョイWW 8149-vGcf):2016/12/12(月) 01:24:13.36 ID:5NlvRxoI0.net
>>488
ノートン先生にブロックされたが?

493 :名無しさん@お腹いっぱい。 (オイコラミネオ MMaf-Rmto):2016/12/12(月) 07:57:55.52 ID:eVBTFnPkM.net
>>492
その先生にせもんじゃね?

494 :名無しさん@お腹いっぱい。 (ワッチョイ 4feb-ifuQ):2016/12/12(月) 09:36:41.73 ID:xJ/FQoEf0.net
>>492
ノートン先生は落としたファイルの利用者が少ないとなんでもかんでも有害認定する池沼だぞ

495 :名無しさん@お腹いっぱい。 (ワッチョイ a7b5-drn7):2016/12/12(月) 11:05:25.67 ID:pPy5/pF00.net
ノートン先生は引退して画商になった。今のノートン先生はレプタリアンが化けてる。

496 :名無しさん@お腹いっぱい。 (プレステP 7be1-drn7):2016/12/12(月) 15:32:46.27 ID:u7QO8mxr01212.net
うちのノートン先生は利用者が少ないファイルでウイルスの疑いがないならそういう風に注意だけ出してくれるけど違う先生なの?

497 :名無しさん@お腹いっぱい。 (KIMWW a7b3-IzEV):2016/12/12(月) 18:03:31.51 ID:UNxRc+zn01212.net
madvrのNGUのベンチが思った以上に凄いから動画に関してはそっちで充分かな
waifu2xだと溶けるのがやっぱり残念なのと、動画のパンでは、境界線でジャギーみたいなのが発生するのも凄く気になる
あと結局は、エンコに凄く時間がかかるのがネックだなぁ
静止画でのベンチは素晴らしいんだけどね

498 :名無しさん@お腹いっぱい。 (アウアウアー Sa53-rkgQ):2016/12/12(月) 22:48:32.93 ID:QU4Hkdhpa.net
NGUがどう進化するか次第だと思う。
waifu2xのいいところと、NGUのいいところが、うまくミックスできると最強なんだろうけど。

499 :名無しさん@お腹いっぱい。 (ワッチョイ e999-+lAG):2016/12/13(火) 12:11:33.58 ID:x32bOoQH0.net
光と闇が合わさって最強に見える

500 :名無しさん@お腹いっぱい。 (ワッチョイ e54d-u7iW):2016/12/13(火) 13:09:33.02 ID:8QyAZWHP0.net
500 Internal Server Error

501 :名無しさん@お腹いっぱい。 (ワッチョイ 0f39-rCEc):2016/12/13(火) 17:56:43.54 ID:FUHIn3Ai0.net
madVRスレでも言われていたけどNGUはジャギーが稀に出る事があるのでそこが改善されると嬉しい。
ちなみにwaifu2xで拡大すると綺麗に拡大されるのでやはり優秀だなあと思う。

502 :名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw):2016/12/17(土) 23:32:04.49 ID:2euhmd5j0.net
前々から思ってたんだけどノイズ除去の「最高」を精度とか品質が最高だと思ってどんな画像も最高で変換している人がいるような気がする。
例えばこの記事も元のjpgの品質が98くらいあるのに最高で変換している。

フルHDから4Kへ! Webのちからでプリキュアの壁紙を超高解像度化する|ギズモード・ジャパン
http://www.gizmodo.jp/2016/12/4k-precure-wall-paper.html

503 :名無しさん@お腹いっぱい。 (ワッチョイ b144-0G5/):2016/12/18(日) 00:11:40.73 ID:CaPeROsC0.net
よりアニメ調を強くしたい時に強くする

504 :名無しさん@お腹いっぱい。 (ワッチョイW 8289-SvdB):2016/12/18(日) 01:33:48.95 ID:WvoSbh560.net
ノイズ除去強めるとのっぺりしないかなぁ

505 :502 (ワッチョイ dc39-sOSw):2016/12/18(日) 02:02:20.19 ID:PC7MwSWO0.net
>>504
実際のっぺりするね
http://i.imgur.com/G6m1ltP.png

506 :名無しさん@お腹いっぱい。 (ワッチョイ 8e25-0G5/):2016/12/18(日) 02:57:40.65 ID:BgfFpOKG0.net
>>488
この作者普通にできる人だったのか

507 :488 (ワッチョイW 8289-SvdB):2016/12/18(日) 11:56:30.17 ID:7XzIowgg0.net
>>505
必要ないならあえて強く掛けない方がいい気がするよな…上の画像なんて元からJPEG品質高いっぽいし

>>506
これなぁ
俺の環境では動画と音声の長さが合わなくて、音ズレしまくったんだよな
更新も止まってるっぽいし…

508 :名無しさん@お腹いっぱい。 (ワッチョイ 87f0-0G5/):2016/12/18(日) 12:18:17.73 ID:7uHGUmfP0.net
音は後から直すのが良いんじゃね。

509 :名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw):2016/12/18(日) 15:45:47.64 ID:MQqRPQLB0.net
動画は可変フレームレートとか色々あるから音ズレしやすいんだよねえ……
一部のWMVも可変フレームレートだから普通にFFmpegで変換すると音ズレする。

>>507
コメント欄に「このソフトで変換すると音声がずれる動画がyoutubeなどにあったらurlを教えてください。」って書いてあるからサンプル提供するかMediainfoで調べた情報送ればいいんじゃないかな。

510 :名無しさん@お腹いっぱい。 (ワッチョイWW 40b3-KZTd):2016/12/19(月) 00:02:19.88 ID:yf+HOxwP0.net
普通にw2xcでエンコするのじゃ駄目なの?

511 :名無しさん@お腹いっぱい。 (ワッチョイ 4bd2-6/+Z):2016/12/19(月) 12:40:53.53 ID:X/IjQk7I0.net
caffeの最新と同等の動画用があるといいんだけどな

512 :名無しさん@お腹いっぱい。 (ワッチョイWW 40b3-KZTd):2016/12/19(月) 19:11:26.22 ID:yf+HOxwP0.net
まあそれが理想だなぁ
w2xcも更新が止まっちゃったし

513 :名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw):2016/12/19(月) 19:46:10.94 ID:HZi8fcUQ0.net
>>488のやつは内部にwaifu2x-caffe使ってる
導入も簡単だし、音ズレ対策やその他諸々の機能追加されたら使い勝手良くなるから頑張って欲しい

514 :名無しさん@お腹いっぱい。 (ワッチョイ b144-0G5/):2016/12/19(月) 20:12:37.28 ID:cYoxZTIh0.net
モデルを入れ替えたらええのか

515 :名無しさん@お腹いっぱい。 (ワッチョイ af5c-VX9/):2016/12/20(火) 11:37:38.14 ID:7knK4IIC0.net
caffe使ったvapoursynthのプラグインがあるだろ

516 :名無しさん@お腹いっぱい。 (ワッチョイ dc39-sOSw):2016/12/20(火) 18:15:15.96 ID:dIqVOmMR0.net
導入することさえ出来ればVapourSynth-Waifu2x-caffeが品質も処理速度も最高だと思うけど導入難易度高いね。

517 :名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW):2016/12/22(木) 17:08:38.15 ID:j+vsgrZa0.net
初心者新参なんだが、どれがおすすめ?

Windows10 Pro 32bit Core i5
メモリ4G

518 :名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU):2016/12/22(木) 19:56:30.72 ID:wcWe8A3W0.net
>>517
32bitのWindowsだとtanakamura氏のwaifu2x-converter-cppかな。
64bitのWindowsなら今でも更新が続いているwaifu2x-caffeがいいんだけどね。
今だとcaffe版にしか付いてない機能も多いし

519 :名無しさん@お腹いっぱい。 (ワッチョイ 9e4e-g1cW):2016/12/23(金) 09:29:37.03 ID:2mEiHi6o0.net
>>518
ありがとうございます!
トライしてみます!!

520 :名無しさん@お腹いっぱい。 (ワッチョイ f604-i5Qz):2016/12/23(金) 13:04:02.41 ID:arkHvTYf0.net
NeuralStyler 2.0
http://neuralstyler.com/index.html

521 :名無しさん@お腹いっぱい。 (ワッチョイ f604-i5Qz):2016/12/23(金) 19:29:05.72 ID:arkHvTYf0.net
Sharper Scaling
http://a-sharper-scaling.com/

Bicubic interpolation
http://a-sharper-scaling.com/2b.jpg

Photoshop Preserve Details
http://a-sharper-scaling.com/2pd.jpg

A Sharper Scaling
http://a-sharper-scaling.com/2ass.jpg 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)


522 :名無しさん@お腹いっぱい。 (ワッチョイ 96f6-8bDS):2016/12/23(金) 20:14:40.66 ID:zVH9+6gN0.net
今使ってるグラボがGTX670なんだけど、1060や1050にしたら処理早くなりますかね?
80枚のイラストを3.0倍、ノイズ除去1 jpgでやると20分位掛かっちゃうんです

523 :名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU):2016/12/23(金) 20:29:03.16 ID:m2BLsLT80.net
>>522
http://akiba-pc.watch.impress.co.jp/img/ah/docs/747/222/html/mdosv1604_b51.jpg.html
多分早くなる

524 :名無しさん@お腹いっぱい。 (スッップ Sdec-4tq9):2016/12/23(金) 20:38:32.67 ID:PfQKYtOOd.net
>>522
早くなると思います。
gtx1060@6gbならばvramを最大限活用すれば間違いなく体感できる差を得られるでしょう。

525 :名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU):2016/12/23(金) 20:40:47.34 ID:m2BLsLT80.net
ごめんグラボよく分からないから523は無しでw

526 :名無しさん@お腹いっぱい。 (ワッチョイ 96f6-8bDS):2016/12/23(金) 20:52:17.48 ID:zVH9+6gN0.net
>>524
ありがとうございます

527 :名無しさん@お腹いっぱい。 (スッップ Sdec-4tq9):2016/12/23(金) 21:04:41.82 ID:2fSZFBUld.net
>>526
ttaの有無、分割サイズ、変換する画像の大まかなサイズなど詳しく教えていただければ自分のpcで走らせてみますがどうでしょう?
多少なりとも参考になると思います。

528 :名無しさん@お腹いっぱい。 (ワッチョイWW c68b-MMWo):2016/12/23(金) 23:22:19.50 ID:8WQGOLBP0.net
AMDから今度出るGPUが深層学習向けらしいけど
このソフトでも早くなるのかな

529 :488 (ワッチョイW 1289-W3gD):2016/12/23(金) 23:46:46.15 ID:rtorBkxO0.net
>>509
さっき覗いたら更新来てた
音ズレ検証してみたけど解消してるわ
これはいいで

530 :名無しさん@お腹いっぱい。 (中止 aa39-AwQU):2016/12/24(土) 15:31:26.95 ID:OFvUtbxO0EVE.net
処理速度をベンチマークするbat書いたよ
動くかどうか分からないけど奇特な人はチャレンジしてみて。

https://www.dropbox.com/s/5p9lnl62qnlk69v/waifu2x_benchmark_v1.zip?dl=0

531 :名無しさん@お腹いっぱい。 (ワッチョイ 34e1-t+3N):2016/12/28(水) 17:41:29.27 ID:08hGKA3e0.net
オンボのノートPCじゃこのソフト使えないんでしょうか?
1280×800の画像1枚を2倍にしたいだけなんですが実行ボタン押しても残り時間:不明って出てフリーズします。
ウェブ版は普通に使えます

532 :名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz):2016/12/28(水) 17:49:55.63 ID:BK0VqACV0.net
waifu2x-caffeなら時間かかるが動くんじゃね

533 :名無しさん@お腹いっぱい。 (ワッチョイ a00f-G+7F):2016/12/28(水) 17:51:02.58 ID:6hOu5zQ90.net
とにかくColorProfile対応してくれることを望みます
ちょっとライトエフェクトとかある差分画像とか全体が全く違う色になって困り果ててしまうわ
これで動画のエンコなんてしたらもう…

534 :名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm):2016/12/28(水) 18:09:49.29 ID:08hGKA3e0.net
>>532
ありがとうございます。ソフト名を書くのを忘れていました。
そのwaifu2x-caffeでフリーズしてしまうのです。

535 :名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz):2016/12/28(水) 18:13:18.56 ID:BK0VqACV0.net
>>534
じゃあ明日まで待つ

536 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd6-g1cW):2016/12/28(水) 18:14:43.22 ID:ClaiyaoC0.net
>>534
残り時間不明のまま一見なにも起きない(裏でちゃんとうごいてる)
のは仕様だと思いますが。CPU使用率を見てれば動いてるかどうか
分かるよ

537 :名無しさん@お腹いっぱい。 (ワッチョイWW c68b-WXY/):2016/12/28(水) 18:39:45.55 ID:ABw+Y6U70.net
>>533
大人しくmadvrのNGU使え

538 :名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU):2016/12/28(水) 18:40:08.51 ID:YGxoh5pu0.net
初期設定だとCUDAで変換するようになってるけど環境がCUDAに対応しているかチェックする時に躓いているのかな
動作設定で使用プロセッサーをCPUにすれば動くと思うけど

539 :名無しさん@お腹いっぱい。 (ワッチョイW 34e1-gWpm):2016/12/28(水) 19:59:06.13 ID:08hGKA3e0.net
>>538
動作設定はCPUにしております。CPU使用率は80%以上でございます。Braswellでは非力すぎて動かないのかな

540 :名無しさん@お腹いっぱい。 (ワッチョイ aa39-AwQU):2016/12/28(水) 20:51:23.97 ID:YGxoh5pu0.net
>>539
時間がかかるだけで変換出来ないって事はないと思うんだけどね
あと気をつけないといけないと思うのは分割サイズを大きくしすぎるとメモリを食ってOSごとフリーズする事くらいかな

541 :名無しさん@お腹いっぱい。 (ワッチョイ 9cd6-g1cW):2016/12/28(水) 23:07:48.09 ID:ClaiyaoC0.net
なんだ、終わるまで待てない人だったかw

542 :名無しさん@お腹いっぱい。 (ワッチョイ de50-i5Qz):2016/12/28(水) 23:12:10.69 ID:p2Cg+1Vx0.net
進捗バーが動くものだと思ってるんだろうな

543 :名無しさん@お腹いっぱい。 (ワッチョイ cee1-i5Qz):2016/12/28(水) 23:49:47.12 ID:9pSB/lfO0.net
あの進捗、ファイル数なんだよなぁ(´・ω・`) 大漁のファイル掘り込めばバー動くけど
オンボろノートで1280×800を2倍拡大だと数分掛かるんじゃね?

544 :名無しさん@お腹いっぱい。 (ワッチョイ f6f0-i5Qz):2016/12/28(水) 23:53:04.70 ID:BK0VqACV0.net
重たい処理したいときはこのあたりのソフト使うと良いよ

【優先度】CPU最適化スレ 3CPU【自動変更】
http://potato.2ch.net/test/read.cgi/software/1327059116/

545 :531 (ワッチョイW b2e1-EzRd):2016/12/30(金) 14:31:11.67 ID:tIIWopzb0.net
辛抱強く待ってたら一応完了したのですが出力先を見たら何もできていませんでした‥.

モデルのUpPhotoとphotoの違いは何でしょうか?

546 :名無しさん@お腹いっぱい。 (ワッチョイ f2e1-Sa8B):2016/12/30(金) 14:40:02.55 ID:RVSItgrB0.net
出力先指定してあるの?違う所見てない? それか上書になってない?

無印は標準モデル
Up印は速度優先モデル(と言っても倍程度。出来上がりに大差はないけど物によっては気になるかもしれない)

547 :名無しさん@お腹いっぱい。 (ワッチョイ d3f6-Eko0):2016/12/30(金) 17:02:37.88 ID:G+DVIbZ50.net
1060が届いたので試してみました
・・・・・・・・・・あまり変わっていない?
分割サイズを128から240にしたけど、う〜ん

後cuDNNってなんぞ?

548 :名無しさん@お腹いっぱい。 (ワッチョイWW 6332-H1Ci):2016/12/30(金) 18:12:22.39 ID:X3KvqHdb0.net
cuDNNはNVIDIAが別で配布しているライブラリ
ディープラーニング用のAPIが入ってる

waifu2xはほとんどの処理時間は
コンボリューションで、cuDNNに
含まれるAPIなので恐らく速くなるはず

caffeeの自前実装のコンボリューションが
鬼のように最適化されてたら変わらんかも
しれんが比較したことないので知らん

549 :名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+):2016/12/30(金) 18:20:53.02 ID:nC1+/K860.net
>>548
ここに各種条件でのベンチマーク結果が書いてあるよ
https://github.com/lltcggie/waifu2x-caffe

550 :名無しさん@お腹いっぱい。 (ワッチョイ 765e-4Ie9):2016/12/30(金) 18:21:04.13 ID:vUMlJ/xP0.net
cuDNN RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:03.170 | 278 |
| 125 | 00:00:02.745 | 279 |
| 200 | 00:00:02.253 | 365 |
| 250 | 00:00:02.147 | 446 |
| 500 | 00:00:01.982 | 1110 |

CUDA RGBモデル

| 分割サイズ | 処理時間 | VRAM使用量(MB) |
|:-----------|:-------------|:-------------------|
| 100 | 00:00:06.192 | 724 |
| 125 | 00:00:05.504 | 724 |
| 200 | 00:00:04.642 | 1556 |
| 250 | 00:00:04.436 | 2345 |
| 500 | 計測不能 | 計測不能(6144以上) |

551 :名無しさん@お腹いっぱい。 (ワッチョイ d3f6-Eko0):2016/12/30(金) 18:34:48.69 ID:G+DVIbZ50.net
>>548
英文書いて登録とか俺には無理だわ
単にチェック入れるだけならな

552 :名無しさん@お腹いっぱい。 (ワッチョイ 9b50-Sa8B):2016/12/30(金) 18:46:40.90 ID:nwoXjDvq0.net
CUDAとcuDNN、処理時間倍違うのかよ。
さらにup系で倍、ファファファノファー

553 :名無しさん@お腹いっぱい。 (ワッチョイ 27d2-lyLD):2016/12/31(土) 00:37:50.29 ID:AExTirDU0.net
Upは速度優先ではなくて速度精度ともに無印より上だよ

554 :名無しさん@お腹いっぱい。 (JP 0Hde-Sa8B):2016/12/31(土) 00:39:48.58 ID:RK8kbYryH.net
Up使うとほとんど無印よりきたねー結果になるんだがなんでた?

555 :名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+):2016/12/31(土) 00:50:31.70 ID:p7hb+TgK0.net
>>554
アーティファクトが出やすい問題がある>>41 >>274
最新の二次元モデルでは出にくくなってはいるけど

556 :名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+):2016/12/31(土) 00:55:45.82 ID:p7hb+TgK0.net
あ、あとcaffeでノイズ除去のみする場合はRGBのほうがいい

557 :名無しさん@お腹いっぱい。 (ワッチョイ f2e1-Sa8B):2016/12/31(土) 08:15:58.58 ID:leMGDIx60.net
>>553
ほんとにそうなら無印いらなくない?
>>555の問題があるからだから残ってるんでしょ?
だからそういうのは精度上とは言わないもんじゃない?

558 :名無しさん@お腹いっぱい。 (ワッチョイ 76d2-Sa8B):2016/12/31(土) 08:28:57.23 ID:AjfKh5GG0.net
cuDNNだけどっかに落ちてねーの?

559 :名無しさん@お腹いっぱい。 (ワッチョイ 27d2-lyLD):2016/12/31(土) 08:40:38.66 ID:AExTirDU0.net
>>557
数百枚に対するベンチマーク(PSNR)では数値的に上

560 :名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0):2016/12/31(土) 22:34:22.56 ID:sFjW5xQA0.net
cuDNN64.5.dll見っけた
探せばあるもんだなぁ
早速導入
おほっ滅茶早ww

561 :名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0):2016/12/31(土) 23:03:42.96 ID:sFjW5xQA0.net
分轄サイズを384にすると5GB以上使って4〜5分だったものが1分掛からずに終了
メモリ使用量は1GB程度に減ってた
cuDNN凄いな

562 :名無しさん@お腹いっぱい。 (ワッチョイ 765e-4Ie9):2016/12/31(土) 23:51:10.10 ID:c2L6UkQy0.net
うpしようとしてたけどやめて良かった

563 :名無しさん@お腹いっぱい。 (ワッチョイ 9b50-Sa8B):2017/01/01(日) 06:27:46.76 ID:kaC7n5qt0.net
nvidiaに登録すればDLできるし、探すほどのものでもないべ

564 :名無しさん@お腹いっぱい。 (ワッチョイ 9bf6-Eko0):2017/01/01(日) 08:15:07.66 ID:Rld7TCmj0.net
この凄さは良い1060のおかげもメモリ量もあって半分くらいはあるのかな?
あってくれ、でないと¥27,000が泣く

565 :名無しさん@お腹いっぱい。 (ワッチョイWW a7f6-i8fm):2017/01/01(日) 11:52:36.53 ID:ZNSLWmzy0.net
ウィルス付だったり変な改変受けてたりするのも有るし
そんなに難しくないから適当に登録した方が安心

566 :名無しさん@お腹いっぱい。 (ワッチョイ b239-mdS+):2017/01/04(水) 13:37:33.40 ID:3JPHOCLB0.net
Kaby Lake-S「Core i7-7700K」基礎検証レポート。注目すべきは絶対性能ではなく,電力対性能比だ - 4Gamer.net
http://www.4gamer.net/games/344/G034458/20170102001/

waifu2xでベンチマークしてて笑う

567 :名無しさん@お腹いっぱい。 (ワッチョイ c344-Sa8B):2017/01/04(水) 19:59:44.27 ID:dGeuxDic0.net
>>566
ディープラーニングの推定工程ベンチマークとして便利かもしれないな

568 :名無しさん@お腹いっぱい。 (ワッチョイ 3272-IQ/9):2017/01/04(水) 20:11:49.14 ID:IycFIp3h0.net
笑うとか意味不でキムチワル

569 :名無しさん@お腹いっぱい。 (ワッチョイ cf7c-Sa8B):2017/01/04(水) 22:02:39.62 ID:CPp7npvh0.net
というかしょっぱすぎる性能だな
Ryzen頑張ってくれよ本当に…

570 :名無しさん@お腹いっぱい。 (ワッチョイ 8291-C4FB):2017/01/07(土) 23:25:48.14 ID:kGxVSOqh0.net
中の人Pixivだったのか納得した

571 :名無しさん@お腹いっぱい。 (ワッチョイ 29d2-5hgy):2017/01/08(日) 19:04:40.17 ID:ZpzukTrs0.net
waifu2xのことなら、中の人の定義によるけど
開発している人(俺)はpixivではないよ
サーバーはpixivの方が運営しているけど

572 :名無しさん@お腹いっぱい。 (ワッチョイ d1cf-dHfL):2017/01/14(土) 04:19:51.80 ID:AOMWwbEx0.net
このスレを見ている人間にとっては大嫌いなレガシー不可逆画像コーデックJPEGに新たなエンコーダが
ttp://gigazine.net/news/20170113-google-guetzli/
人間の目に最適化した極低速高圧縮JPEGエンコーダGuetzli

SSIM:             libjpeg比 14%悪化
PSNRHVS-M:        libjpeg比 14%悪化
butteraugli:         libjpeg比 30%良化
エンコード速度:       libjpeg比 10000%+悪化
同等画質サイズ:       libjpeg比 35%良化
同等画質転送レート:    libjpeg比 35%良化
ttps://translate.google.co.jp/translate?sl=en&tl=ja&u=http%3A%2F%2Fencode.ru%2Fthreads%2F2628
ttp://encode.ru/threads/2628

長すぎるエンコード時間(消費エネルギー)という元手・投資を取り返すには何回その画像ダウンロードされないといけないんだろうな
性能はたしかに良いからお試しあれ

573 :名無しさん@お腹いっぱい。 (ワッチョイ b1d2-BSl8):2017/01/14(土) 10:43:46.82 ID:kO6Aianq0.net
よくわからんが、電算機関連の話では
性能って普通は速度(時間)のことを言うんじゃないのか

574 :名無しさん@お腹いっぱい。 (ワッチョイ 1339-5BG0):2017/01/14(土) 11:55:01.52 ID:cz8mjfgz0.net
GuetzliよりGuetzliの性能を評価したbutteraugliってやつのほうが気になる。
SSIMやPSNRより人間の主観に近い画質指標なのかな。

575 :名無しさん@お腹いっぱい。 (ワイモマー MM33-YL17):2017/01/14(土) 12:31:07.66 ID:ySHnyXEvM.net
butteraugliでwaifu2xと他の拡大アルゴリズムの比較されたら、どんな結果が出るのだろうな

576 :名無しさん@お腹いっぱい。 (ワッチョイ d950-dHfL):2017/01/14(土) 13:15:34.86 ID:3XEqy+Cv0.net
リファレンスのpngをq89ぐらいにすると、
似たサイズになるんだけど、確かに通常より綺麗だな。
waifuで拡大したほうが超綺麗になったけど、そういう問題じゃないからね。

577 :名無しさん@お腹いっぱい。 (ワッチョイ 1339-5BG0):2017/01/14(土) 16:10:52.71 ID:cz8mjfgz0.net
>>575
自分もそう思ったんだけどbutteraugliのビルド方法がよく分からなくて断念したよ。
Googleがバイナリを配布してくれればいいんだけどね。

というかほぼGoogleしか使ってない指標でGoogleのエンコーダを評価されても性能が良く分からないよなと思う。

578 :名無しさん@お腹いっぱい。 (スプッッ Sd7d-qERx):2017/01/14(土) 18:56:54.13 ID:0SNYGzDGd.net
>>577
https://github.com/google/guetzli/releases

579 :名無しさん@お腹いっぱい。 (ワッチョイWW 0932-744s):2017/01/15(日) 09:56:09.63 ID:0bystr9E0.net
waifu2xの後追いして遊んでるんだけど
作者氏、GAN使うの嫌がってるんだよね

とりあえずGAN、ResNet、PixelSuffle
実装してみたけど見た目SRCNN臭さは
だいぶとれるけどたくさん評価
してないので微妙

俺の本丸は計算量削減なんだけど
理論上計算量3割のはずなのに
3割しか早くならない

chainer、推論遅くないか

580 :名無しさん@お腹いっぱい。 (ワッチョイWW b37c-j87h):2017/01/15(日) 12:05:43.60 ID:lB/+H+EU0.net
サンプル画像すら出さないで何を言わんや…

581 :名無しさん@お腹いっぱい。 (オッペケ Srdd-744s):2017/01/15(日) 12:31:47.79 ID:KsNDNARPr.net
評価中なので待ってください
一回回すのに10時間かかるので
何日かかかります

582 :名無しさん@お腹いっぱい。 (ワッチョイ 6bcc-dHfL):2017/01/15(日) 13:36:32.29 ID:Ux9tIyw00.net
スクール水着の凹凸を判断してテカテカのラバーコーティングの水着にできる?

583 :名無しさん@お腹いっぱい。 (ワッチョイW 9b89-kkJw):2017/01/15(日) 13:52:26.00 ID:HieKzZb90.net
いいなそれ

584 :名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD):2017/01/15(日) 15:35:17.21 ID:6WNzG8+M0.net
>>579
GANはPSNRをあまり下げずに使えるならいいですが
(ロス関数の重みの調節で出来ると思いますがトレードオフがあるのでGAN使う意味がなくなってきそう)
PSNRがBicubic以下になると
変換結果に不安があるため現在BicubcやLanczosが使われる領域での置き換えには使えないと思って避けています。
もちろんいくつかモデル作って選択できるようにすればいいだけですが
面倒なのでやっていない状態です。ResNetはdevブランチには入ってます。

585 :名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s):2017/01/15(日) 15:46:09.89 ID:7I2qaVWZ0.net
>584
GANについては混合比率下げると
全くなしと見分けがつかないので
PSNRは必ず犠牲になる印象です

3dB近く悪くなるので受容できないで
しょうね

GANは学習すごく遅くなるので
つらいです

GANは学習回数多くしないとだめ
なのでもしかしたら今足りてない
可能性があるので後でしつこく
やってみます

作者さんも自分で実験するのが
めんどいと思うので結果はアップして
共有します

586 :名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD):2017/01/15(日) 15:59:53.33 ID:6WNzG8+M0.net
butteraugli というので本当に見た目の印象が定量評価できるならそれもあり思いますね。
僕が見た目の評価嫌う理由は、たいして見る目がない人がリンギングでまってくる画像を
くっきりしているからよいとか判定してしまうところにあるので。

587 :名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s):2017/01/15(日) 18:17:37.15 ID:7I2qaVWZ0.net
butteraugjiはためしてみたけど
値が小さい方がいいっぽいね

画像ができたら数字比較してみるわ

588 :名無しさん@お腹いっぱい。 (ワッチョイWW 4bc5-744s):2017/01/15(日) 19:31:48.53 ID:7I2qaVWZ0.net
butteraugliでエポックごとの
評価みたけど学習打ち切った時点で
まだあがってた

評価がサチるまで回しますが、
たぶんすごい時間かかります

二乗誤差じゃわからん

589 :名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD):2017/01/15(日) 20:38:29.02 ID:6WNzG8+M0.net
SRGANはやろうとした人を何人も見ましたが
みんなうまくいっていないので
写真のモデルでcheckboard artifactを出さずに
論文の結果と似たような画像を生成できればそれだけで価値があると思いますよ

590 :名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov):2017/01/15(日) 21:26:01.39 ID:0bystr9E0.net
SRGANはチャレンジですね。がんばってみます。
うまくいったら挑戦します。

butteraugli初耳だったんですが、スレ観たらビルドの仕方が
わからない人がいる模様。Linuxの開発したことのある人少ないんですかね。

Windows10のコマンドプロンプト開いて以下のコマンドで実行、

$ bash

コンパイラとライブラリインストール(zlibはpngと一緒に入る)、

$ sudo apt-get install gcc g++ make libjpeg-dev libpng-de

ソースコードのMakefileのあるディレクトリで

$ make

で実行ファイル作られます。bash上か他のLinuxマシンのみで動きます。

プログラマじゃない人も色々遊んでみてください。

591 :名無しさん@お腹いっぱい。 (ワッチョイ 0932-vSov):2017/01/15(日) 21:27:08.93 ID:0bystr9E0.net
$ sudo apt-get install gcc g++ make libjpeg-dev libpng-dev

です。すんません。

592 :名無しさん@お腹いっぱい。 (ワッチョイWW b37c-j87h):2017/01/15(日) 21:29:00.78 ID:lB/+H+EU0.net
waifu2x、再び!!
Stay tune!

593 :577 (ワッチョイ 1339-5BG0):2017/01/15(日) 22:37:39.20 ID:3/ESU5jW0.net
>>590
ありがとうございます。
ビルドできました。

594 :名無しさん@お腹いっぱい。 (ワッチョイ ebb5-ir0y):2017/01/18(水) 15:23:24.52 ID:bain95gP0.net
Google、機械学習で低解像度画像をシャープに見せる「RAISR」をサービスで実用化
http://www.itmedia.co.jp/news/articles/1701/17/news067.html

595 :名無しさん@お腹いっぱい。 (ワッチョイ 6b23-dHfL):2017/01/18(水) 15:27:07.14 ID:n4UMTi1p0.net
>>594
これyoutube動画でもやってくれないかな。
あと動画上の物体の形や位置を認識してサラウンド感を与えるとか。

596 :名無しさん@お腹いっぱい。 (ワッチョイ e1d2-suvD):2017/01/18(水) 15:39:56.54 ID:xnw/jmuH0.net
やりたいことはYoutubeがすでやっている動画の再エンコと一緒じゃないかな
画質を改善するというより、苦情の少ない範囲で圧縮したいなので
運営としては通信量が減って嬉しいけどユーザーとしては以前よりも画質が悪くなるので
携帯事業者がやっていた「通信の最適化」と同じ考えだと思う

597 :名無しさん@お腹いっぱい。 (ワッチョイW 535b-Wsqm):2017/01/18(水) 20:37:05.06 ID:eyJLRRBJ0.net
でもそれで同じ容量で解像度が例えば1.5倍になれば話が変わる
色空間やインターレースしかり悪いばかりのトレードオフでは無いと思う

598 :名無しさん@お腹いっぱい。 (ワッチョイ a399-8m7v):2017/01/23(月) 19:31:01.14 ID:B0/L9i7j0.net
waifu2x-cafeeをXeonとQuadro両方積んだPCで実行するときってどっちのほうが効率的なんだ?
ちなみにXeonは12コア3.30GHz、Quadroは2000。

599 :名無しさん@お腹いっぱい。 (ワッチョイW cf63-gIHQ):2017/01/24(火) 00:16:40.73 ID:RYhQuic60.net
>>598
Quadroの方が速いんじゃないですかねぇ?

↓の画像でXeon 16Core 3.6GHzで2分40秒ぐらい
CPU使用率は20%ほど XPx64環境で無理矢理実行したからちょっとアテにならないかもしれないけど
http://www.dotup.org/uploda/www.dotup.org1133523.jpg 変換元画像
http://www.dotup.org/uploda/www.dotup.org1133524.png 設定

600 :名無しさん@お腹いっぱい。 (ワッチョイW 7f1e-Zbvk):2017/01/24(火) 08:27:54.07 ID:2IuxhXxQ0.net
>>599
ハイエンドなマシンで動かしてらっしゃるようなので
NeuronDoubler v5.00だとどれぐらいかかるか検証して頂いてもいいですか?
http://loggialogic.blogspot.jp/2015/09/neurondoubler-v500.html?m=1

601 :599 (ワッチョイW cf63-gIHQ):2017/01/24(火) 23:23:52.69 ID:RYhQuic60.net
>>600
sampleのlogo.pngを2倍で16s、4倍で66s
sampleのphoto.pngを2倍で44s、4倍で200s
といった感じです

32倍をlogo.pngでやってみたら1876sとかかかったので、photo.pngの方は試してないですw

602 :名無しさん@お腹いっぱい。 (ワッチョイ 7f1e-a3Th):2017/01/25(水) 09:31:13.38 ID:7PUj0Uuc0.net
>>601
ありがとうございます
手持ちのMacbook Pro late 2012では
960×540のpng(写真)を変換したところ1600s
ぐらいでした
16コアもあると動画用にNeuronDoublerを使えそうで羨ましいです

603 :名無しさん@お腹いっぱい。 (ワッチョイWW 3332-z0uo):2017/01/25(水) 21:02:31.59 ID:idIVVLyq0.net
waifu2x研究家なんですけど
GANのPSNR問題解消しそうなので
週末画像出します

waifu2xと同じupモデルをこっちで
再現したものとの比較しますが
時間がかかるのでそれ以外との
比較は難しいです

何個かネタがあってそのマイルストーンです

3月に資料作るのでそのとき
リンク張ります

604 :名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL):2017/01/26(木) 00:25:26.80 ID:AnODLToW0.net
単純にはMSEとGANの出力を適当な割合で合成すればいいように思うけど
重くなるので学習の枠内でやれればいいですね

あとneural-enhanceの人も最近waifu2x的なやつをやろうとしているみたいです
https://twitter.com/madebyollin/status/823652970440986624
これは別の人の結果だけど、たしかに線はくっきりしているけど余計なことをしすぎているように見える

605 :名無しさん@お腹いっぱい。 (ワッチョイ 2b32-xu7M):2017/01/26(木) 06:13:14.86 ID:9CM3n4Bd0.net
>604
適当な割合で合成すればいいんですけどふたつ問題があって

1. 適切な混合比率がタスクによって違う
2. 結果が不安定でうまくいってるエポックとそうでないエポックのばらつきが大きい

なので、前者については二乗誤差に対して何%GANを反映するのかって
コントロールを入れています。

GANが余計なことをするのは誤差のGANの項が正解データとの比較を
しないからじゃないかってことで正解データと比較するGANをは
考えてみました。

GANなしに比べてSSIM、PSNRは同等、butteraugliはかなり良くなってます。
正解データと比較する時点でGANの解釈がかなり変わるんですが
(評価中なので正確な値は週末出します)

606 :名無しさん@お腹いっぱい。 (ワッチョイ 2b32-xu7M):2017/01/26(木) 06:33:06.18 ID:9CM3n4Bd0.net
わかる人がまわりにいないので、ここに書いてあれなんですけど、

従来のGAN)
Discriminatorで本物らしさを判定して誤差に反映

自分の手法)
本物らしさを学習したDiscriminatorの中間層の出力を
本物と生成データで比較、となります。

Discriminatorの中間層は通常の二乗誤差で比較するのと比べて
大幅に大きい情報量で比較するのと、Discriminator自体が
誤差関数になるので普通の二乗誤差と比べると複雑、高度な比較になります。

Twitterが出してる論文は物体認識を学習させたモデルで中間層の出力で
比較しろ、と書いてあって、これがコンテンツロスなんですが、
コンテンツロスの適用部分はGANに対してやった方がいいのでは
というのが自分の意見です。

607 :名無しさん@お腹いっぱい。 (ワッチョイW f7cf-bF0B):2017/01/26(木) 08:44:57.33 ID:BNYEQ6nK0.net
こういうやつに税金投入するべき

608 :名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL):2017/01/26(木) 13:58:06.91 ID:AnODLToW0.net
イラストの超解像でperceptual lossにImageNetの学習済みモデルを使うのがよくないのは明らかなので
Discriminatorが使えるならそれは同じ解像度のイラストで学習しているわけだからよさそうですね
ただDiscriminatorは学習中に動くので不安定そうですが
GAN自体がそういうものなので動く感じでしょうか

609 :名無しさん@お腹いっぱい。 (JP 0H73-xu7M):2017/01/26(木) 14:51:03.26 ID:owYC7mKIH.net
どうも、wiafu2x研究家の人です。

Twitter社の論文読んだとき、コンテンツロスがめちゃくちゃ
めんどくさいので俺はあきらめました(コンテンツロスのために
物体認識のタスクもやらないといけなくなるので大いに藪蛇)。

SRGANがみんなうまくいかない原因はsoftmax、softplusを
そのまま誤差にするから結果が不安定で調整が難しい、
のが大きなところかと思います。

そもそものDCGAN自体も論文の趣旨がうまく生成できる
パラメータが見つかりましたって部分ですからね。

ちなみに自分はSRCNNは勉強会の発表ネタなので、8月に
一か月実験したのと3月の発表があるのでそれで今だけ
やってるだけなので、先行技術のサーベイが非常に
あやしい(何も知らない)のでご教授いただけると幸いです。

今のところもう一個ネタがあって、画像ごとに重要度マップを
作って誤差に重み付けする方法を考えています。
多分来月前半には実験してると思います。

610 :名無しさん@お腹いっぱい。 (ワッチョイ 4fd2-C7aL):2017/01/26(木) 16:22:50.49 ID:AnODLToW0.net
物体認識の学習済みモデルは配布されているので自前で学習する必要はないです(再現させる場合)。
generatorの出力とgroundtruthそれぞれをそのネットワークに入力して
適当な層(convの2,3層目)の出力が同じになるようにMSEを最小化するのがperceptual loss(コンテンツロス)で
それとdiscriminatorを使ったadversarial lossで
loss = perceptual_loss * perceptual_loss_weight + adversarial_loss * adversarial_loss_weight
を最小化するように拡大前の画像を入力とするgeneratorを学習するのがSRGANという認識です。
なので違いはコンテンツロスに使うモデルを変えているところだと思いました。
自分もGANはやったことがないので違ってるかもしれません。

611 :名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy):2017/01/26(木) 16:48:26.18 ID:j7MEo8mlr.net
説明ありがとうございます
認識合わせできました

自分の場合は再現に興味がなく、
それは単に遊んでいるだけなので
学術的なアプローチはどうでもいいから何ですが

なのでさっさと自分の手法に取り込みたかったんですが
イラストに関しては分類器新たに
学習しないといけなさそうなので
めんどくさいなあと思ったんです

それとは完全に独立してganが
課題があったのでそれを考えてたら
最終的に元論文のやり方を捻る
方法になりました

612 :名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy):2017/01/26(木) 17:17:12.53 ID:j7MEo8mlr.net
ganのloss_weightがセンシティブで
小さいと効かないし、大きいと
学習が発散するし、ギリギリねらうと
エポックごとに結果違うし、
学習データ変えると定数変わるしってのが
現状のsrganだと思います 

学習が重いのでいじっていると
疲れてくるので自分は安定した方法を
求めてます

自分の提案手法は安定してます
効果の評価ができてなくて
4倍拡大とかどうなるかわかりません
2倍だと良いんじゃないかなあと思います

後でスレの人に厳しいデータ教えてもらおうと思います

613 :名無しさん@お腹いっぱい。 (ファミマWW FFd2-fIWv):2017/01/26(木) 19:03:54.54 ID:tDU6wUAkF.net
詳しいことはよくわからないけど、ガンガレ。超ガンガレ。

どうせならちょっと前のmadVRの新しい拡大の三つ巴でもいいんだぜ…

614 :名無しさん@お腹いっぱい。 (オッペケ Srbf-ITqy):2017/01/28(土) 11:47:38.55 ID:edepqLn8r.net
waifu2xの研究してる人なんだけど

すまん、アルゴリズムは固まってて
学習させるだけなんだけど
画像出すの来週になる...

615 :名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz):2017/01/28(土) 14:42:13.13 ID:BYBTK1en0.net
chainerで線画着色をwebサービスにして公開してみた
http://qiita.com/taizan/items/7119e16064cc11500f32

616 :名無しさん@お腹いっぱい。 (ワッチョイ 86ec-AZYz):2017/01/28(土) 15:02:18.06 ID:BYBTK1en0.net
>>614
楽しみにしてますがゆっくりやってくだちい

617 :名無しさん@お腹いっぱい。 (ワッチョイ a36a-AZYz):2017/01/28(土) 15:17:47.96 ID:jlInyXUj0.net
>>615
着色は全くの範囲外だったが、ちと興味が出てきたw
モノクロ写真とかにも活用できそうだな

618 :名無しさん@お腹いっぱい。 (ワッチョイ a239-WSvd):2017/01/28(土) 15:35:09.06 ID:iZRmUjsJ0.net
>>615
着色の精度はまだまだだけど、とても面白かったです。
学習が進めばもっとよくなると思うとすごい期待できます。

619 :名無しさん@お腹いっぱい。 (ワッチョイ 4725-AZYz):2017/01/30(月) 14:56:45.57 ID:pPztTfPj0.net
あいかわらず
塗りつぶしになっちゃうよ
進歩がないなあ
AIダメっぽい

620 :名無しさん@お腹いっぱい。 (ワッチョイ a36a-zMqm):2017/01/30(月) 18:04:46.45 ID:qudbf77R0.net
今更ながら>>615-616に気付いた
自演すんなよw

621 :名無しさん@お腹いっぱい。 (ワッチョイ b70f-hijU):2017/01/30(月) 18:20:11.64 ID:AIhudIHS0.net
>>620
アンカちゃんと読もうなー

622 :名無しさん@お腹いっぱい。 (ワッチョイWW 4785-1CvP):2017/01/31(火) 03:28:18.08 ID:Mk/X4pNp0.net
>>615
やっぱり自動だと色が薄くなるね
あと漫画だとエラー吐かれて駄目だわ

623 :名無しさん@お腹いっぱい。 (ワッチョイWW db49-u9qX):2017/02/01(水) 00:48:53.09 ID:47em4zG90.net
>>615
別にスレッド建てれば?

それとも有るの?

624 :名無しさん@お腹いっぱい。 (ワッチョイ c664-FuHd):2017/02/01(水) 18:15:33.93 ID:r8gMgX8Z0.net
http://i.imgur.com/3FdvZVm.jpg
http://i.imgur.com/K1wQKBV.jpg

625 :名無しさん@お腹いっぱい。 (アタマイタイーW 7a39-cbEw):2017/02/02(木) 17:45:47.99 ID:HLUwrrpx00202.net
waifu2xcaffeで600dpiの画像を2倍に変換したら
96dpiになったのですが、これは仕様ですか?
てっきり倍にしたのだから300dpiになるのかと思っていました。

626 :名無しさん@お腹いっぱい。 (アタマイタイー 3132-0MWP):2017/02/02(木) 18:37:57.12 ID:TB2MRryB00202.net
>>625
1920x1080で600dpi(=3.2インチ*1.8インチ)の画像を2倍に変換したら、
3840x2160で1200dpi(=3.2インチ*1.8インチ)か、600dpi(=6.4インチ*3.6インチ)じゃないか?

627 :名無しさん@お腹いっぱい。 (アタマイタイー 56d2-2lTc):2017/02/02(木) 18:58:49.86 ID:J3/O+Al000202.net
>>625
dpiは入出力デバイスの設定なのでwaifu2xの処理はそこに関与しません。
画像のメタデータに特に気を使っていないので印刷サイズには既定値が入っているのだと思います。
印刷や入稿等で必要なら別の方法で再設定出来ると思います。

628 :名無しさん@お腹いっぱい。 (ワッチョイ 7a39-BdZd):2017/02/03(金) 10:31:32.28 ID:GXC4yUrd0.net
>>626
>>627
ありがとうございます。
実感としてきれいに見ることができているので少し疑問に思い質問させていただきました。
dpiについてwaifu2xはいじっていないのですね。
dpiやppiのデータ上の数字は気にしないことにします。
(印刷とかはしないので)

629 :名無しさん@お腹いっぱい。 (ササクッテロレ Sp45-xDny):2017/02/03(金) 10:35:55.98 ID:2kWw6qu3p.net
ソフトの名前の由来はなに?

630 :名無しさん@お腹いっぱい。 (ワッチョイ 15d2-NqFz):2017/02/03(金) 11:03:16.69 ID:x+9qdMRg0.net
waifuを2倍に拡大するからだろ
waifuはぐぐれ

631 :名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP):2017/02/03(金) 12:46:58.29 ID:tUa22Nfc0.net
ワイフ





632 :名無しさん@お腹いっぱい。 (ワッチョイ 15a1-yene):2017/02/03(金) 13:50:44.75 ID:Djehhjag0.net
わざわざ5行で書く無能

633 :名無しさん@お腹いっぱい。 (ワッチョイ 8164-P2Y1):2017/02/03(金) 15:14:16.11 ID:2ljm3Fbi0.net
2次特の時点で由来とか聞かなくてもわかるくらいには直接的

634 :名無しさん@お腹いっぱい。 (ワッチョイW 65cf-51wG):2017/02/03(金) 15:22:25.83 ID:/MDCuEKc0.net
じぇいぺぐルネッサンス

635 :名無しさん@お腹いっぱい。 (ワイモマー MM1a-1ST5):2017/02/05(日) 23:27:16.44 ID:LHzxPccgM.net
madVRにおけるNGU pixart特化版のテスト中みたい
NGU無印やwaifu2xと比較するとやや眠くなるものの、例のジャギー問題もこっちなら出なさそう
旧来のNNEDIを正統進化させたような画になってて、処理負荷は低い

Original     ttp://madvr.com/mario/org.png
waifu2x     ttp://madvr.com/mario/waifu2x.png
NGU VH    ttp://madvr.com/mario/NGUveryHigh.png
NGUpixart VH ttp://madvr.com/mario/NGUpixartVeryHigh.png
NNEDI256   ttp://madvr.com/mario/nnedi256.png

636 :名無しさん@お腹いっぱい。 (スップ Sdfa-e4OR):2017/02/06(月) 14:09:54.91 ID:RhMnf4vZd.net
waifu2xはwebサービスじゃなくて
windows版はないのだろうか?

637 :名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc):2017/02/06(月) 14:13:31.31 ID:ogCj2q/30.net
pixel artの拡大はゲーム機のエミュレータで実装されているような処理のほうが納得できる拡大になると思う
2xSaIとか
http://johanneskopf.de/publications/pixelart/
とか

638 :名無しさん@お腹いっぱい。 (ワッチョイ 56d2-2lTc):2017/02/06(月) 14:13:58.10 ID:ogCj2q/30.net
>>636
waifu2x-caffe

639 :名無しさん@お腹いっぱい。 (ワッチョイ 6115-0MWP):2017/02/06(月) 14:49:05.64 ID:yDHhyamZ0.net
>>637
ピクセルシェーダー機能ある動画再生ソフトについてるんじゃね。

640 :名無しさん@お腹いっぱい。 (ワッチョイ 96e9-0MWP):2017/02/08(水) 12:04:15.02 ID:0rk9u2E+0.net
8×8ピクセルに縮小した画像から元の画像を予想する技術をGoogle Brainが開発
http://gigazine.net/news/20170208-pixel-recursive-super-resolution/
http://i.gzn.jp/img/2017/02/08/pixel-recursive-super-resolution/a03.jpg

641 :名無しさん@お腹いっぱい。 (ワッチョイ 6144-0MWP):2017/02/08(水) 16:11:31.49 ID:8Gpp+YrU0.net
>>637
それはffdshowにあるね。

642 :名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP):2017/02/08(水) 17:11:42.74 ID:C6utgMTP0.net
http://blog.nest-online.jp/7557
ここの一番上のなんたらマジックで拡大しても劣化しないベクター画像化してみたんだけどいいですね
久々にワクワクした

643 :名無しさん@お腹いっぱい。 (ワッチョイ 65cf-0MWP):2017/02/08(水) 17:13:49.90 ID:C6utgMTP0.net
と書き込んだ後でバンディングが問題なことに気がついた失礼

644 :名無しさん@お腹いっぱい。 (ワッチョイ 263b-P6gz):2017/02/10(金) 19:41:32.41 ID:jEc7Edve0.net
9日に緊急のWindows UpdateとやらでGeforceのドライバが更新されて
Waifu2x-caffeを使うと「CUDAドライバーがインストールされていない〜」状態になった

一応、システムの復元で元に戻したけど....作者さん助けて(もう見てないかねぇ)
Windows10は勝手にアプデかかるから困った

645 :名無しさん@お腹いっぱい。 (ワッチョイ 26fb-cGUq):2017/02/10(金) 19:56:17.86 ID:M6Wjsk9Z0.net
Geforceのドライバだけ古いのインストールしたら良いんじゃね

646 :名無しさん@お腹いっぱい。 (ワッチョイW 7a83-S0So):2017/02/10(金) 20:37:24.67 ID:xx2cZ+iv0.net
古いVerは置いとかないとね
俺も勝手にアップデートされた

647 :名無しさん@お腹いっぱい。 (ワッチョイ def6-cGUq):2017/02/10(金) 22:04:57.99 ID:5UGLSm6g0.net
>>644
Windows Update経由のGeForceドライバ更新はいい話聞かないからどうにかして止めるなりNVIDIA公式から拾ってくるなりしたほうがいいかも
こちらはGTX680にドライバ378.49で何事もなく動いてます

648 :名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82):2017/02/11(土) 20:31:30.21 ID:Kr/JTqjP0.net
どうも、wiafu2x研究家の人です。
すごい時間かかりましたが最初の結果が出ました。

|PSNR|SSIM|butteraugli|
waifu2x|27.629|0.928|9.622|
GANなし|27.612|0.927|9.049|
GANあり|27.474|0.926|8.968|

649 :名無しさん@お腹いっぱい。 (ワッチョイ e932-oA82):2017/02/11(土) 20:36:55.90 ID:Kr/JTqjP0.net
butteraugliの値は低い方がいいはず
なので俺の手法の方が良い

俺の手法は主に計算量をwaifu2x/UPモデルより計算量を1/4にしていますが8層です。
実質的に層の数が多いのが効いてる可能性もありますが不明です。

すみませんがこちらの都合でアルゴリズムは非公開です。
ここで話が出ていた俺手法のGANについては今再試験中です。

650 :名無しさん@お腹いっぱい。 (ワッチョイW 7d6e-k0wy):2017/02/11(土) 23:13:48.93 ID:ntjYRpkn0.net
WUでVGAのドライバ更新する人なんておるんか・・・

651 :名無しさん@お腹いっぱい。 (ワッチョイ 26d6-CIv3):2017/02/11(土) 23:21:38.80 ID:bBXphDts0.net
勝手にされるから困ってるっていう話じゃないのかな?

652 :名無しさん@お腹いっぱい。 (ワッチョイ e932-3CwI):2017/02/12(日) 11:08:12.78 ID:ra0YTrEG0.net
どうも、wiafu2x研究家の人です。

評価結果以下に置いてあります。
2000エポック学習させた最終100エポックの画像も付けているのでデータでかいです。
評価できる人がいたらみてやってください。

https://remoteplace-my.sharepoint.com/personal/t-matsu_office_remoteplace_net/_layouts/15/guestaccess.aspx?docid=0eb33501796144cb0abeadc2dd87b74d3&authkey=AbBvhLq0ewcbScMYwVYIx4c&expiration=2017-03-14T02:04:18.000Z

653 :名無しさん@お腹いっぱい。 (ワッチョイ ea39-P6gz):2017/02/12(日) 18:06:51.45 ID:8CCipcq70.net
web版のwaifu2x、ICCプロファイル対応したっぽい?

654 :名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM):2017/02/12(日) 18:47:05.95 ID:T/zbW8Mv0.net
>>648
その値は画像数百枚の平均ですか、1枚だけですか。
waifu2xと書いてあるものはネットワークの定義だけ持ってきて独自に学習したものですか。(そうだと予測)

元画像を探してきてLanczosで1/2にしたあとにwaifu2x配布モデルで拡大すると明らかに結果が違います。
http://ccsaku.moe.hm/gyazo/data/18eac1728b714cfe64b7843ae5a91499.png
左が評価に使用されている超解像/waifu2xモデル/model_u01999.pkl.pngで、右がwaifu2xの配布モデルの拡大結果です。
左はかなりぼやけていて
PSNRも 超解像/waifu2xモデル: 27.717, waifu2x配布モデル: 31.771
と4dBも差があります。ちなみにLanczosが26.449です。
waifu2xと書く場合はこちらの配布モデルと比較して欲しいです。
学習データは、2012年に作ったものなのでそれよりも新しい画像は使われていません。

添付の結果については、見た目はほとんど違いが分かりませんが
GANありは顎のラインと鳥の下の髪あたりにcheckboard artifactが出ています。
各エポックで結果が揺れるならエポックごとにvalidationしてそれで一番よい値の時だけ
パラメータ保存しておけばいいと思います。

655 :名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM):2017/02/12(日) 18:49:25.75 ID:T/zbW8Mv0.net
>>653
対応は入れましたが、最近サーバーの環境にちょっとトラブルがあるので
すぐにはウェブ版に反映されないかもしれません。

656 :名無しさん@お腹いっぱい。 (JP 0H09-3CwI):2017/02/13(月) 12:19:52.07 ID:BMiBMFwmH.net
>654
確認ありがとうございます!!!
waifu2xと書くのは問題ありそうなのでいい呼び方があったら教えてください。

waifu2xと直接比較しないのは、不明な工夫(学習データ、アウギュメンテーションなど)
がたくさんあり、それを見切れないので比較しようがないというのがあります。
条件を合わせているのは層の数、チャンネル数だけです。
そちらの方としてはあまり変わったことはやってないかもしれませんが、
こちらはそれがわかりません。

とりあえずこれでいい結果が出る手法が発見されればwaifu2xにバックポートすれば
性能上がるのかなと思います。

PNSRなどは2000エポックのうち最後の1000エポックの平均です。
画像を複数枚評価するのは時間的に厳しいのでできていません。

アーティファクトについてはしらなかったのでそういう指摘は助かります。
GANは2000エポックで収束してないというか収束しそうにないので
俺手法のGANの効果については今のところ自分も懐疑的です。

657 :名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM):2017/02/13(月) 15:10:31.44 ID:eYxsvRKA0.net
>>656
waifu2xはごちゃごちゃやっていることが多いですがそこまで影響していないと思うので
4dBも違うのは教師データの位置がずれてるか学習の方法かハイパーパラメータが悪いのではないかと思います。
最初に近い精度までは持って行かないとなにか間違いやバグがある可能性があり信頼できなくなります。
waifu2xは写真データで既存手法と同じくらいの結果が出るところまでは調節しています。

waifu2xの学習の基本的なところは、
- 入力画像のランダムな位置から96x96の領域(patch)を切り取り(y)
- それを48x48に縮小(x), 縮小アルゴリズムはBox(平均画素法)とlanczosをランダムに使う
- CNNにxを入力して82x82の出力を取得(zero paddingがないため(96-14)^2になる)
- 出力とyのピクセル位置が合うようにyを82x82に切り取り
- (x-y)^2 誤差を計算してパラメータを更新
で、実際には、画像単位で縮小してその中から64領域を切り取って、xと対応するyもあらかじめ作りながら
画像数*64の(x, y)ペアを作った後にシャッフルしてbatch_size=16, optimizer=Adam(alpha=0.00025)で学習を回しています。
64領域のサンプリングは2エポック毎に行っています(ランダムな位置から再度作り直す)
patch_size, batch_size, Adamの設定は結果への影響が大きいです。

>画像を複数枚評価するのは時間的に厳しいのでできていません。
学習に使わない画像を100枚くらい外しておいて
学習済みのモデルでベンチマークするコードを書いておけば実行は5分もかからないと思います。

>>655
反映されているようです。ウェブ版にICCプロファイルの対応入れています。

658 :名無しさん@お腹いっぱい。 (JP 0H09-3CwI):2017/02/13(月) 17:35:47.49 ID:BMiBMFwmH.net
4dB問題は知ってたんですけどいくら確認してもおかしいところが
見つからないのでwaifu2xが何かやってるんだろうととりあえず放置していました。

そちらからみておかしい、とのことですのでもっとしっかりデータ確認します。

ありうるのはサブピクセルレベルでのピクセルずれ(縮小時に奇数ピクセル数だとずれるとか)が
ありうるかと思いますが、そちらで情報開示してもらったのでそれに合わせてやってみます。

縮小フィルタの特性を学習してしまう問題も知ってるんですけど、そういう回避方法は
考えていませんでした。やってみます。

659 :名無しさん@お腹いっぱい。 (ワッチョイWW d6c5-PD8f):2017/02/13(月) 19:03:49.27 ID:6JRW9uJM0.net
adamのalphaは小さめにしていますが
それでもでかいようなので全部そろえます

毎度すみません

660 :名無しさん@お腹いっぱい。 (ワッチョイ e6d2-0UxM):2017/02/14(火) 00:43:58.37 ID:9afuuku60.net
>>82x82
upconv_7の出力は68x68でした。(96-14*2)
>縮小時に奇数ピクセル数だとずれるとか
これは必須です。もし対策していなければこのせいじゃないかと思います。
waifu2xは学習画像読み込み時点で4の倍数になるようにしています。(4xもあるため)
またpatchを切り取る位置も元画像側の位置が奇数になると縮小側の位置がズレます。

661 :名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY):2017/02/17(金) 20:31:02.69 ID:ISS8P0MC0.net
超解像頑張り中の人です。

とりあえずwaifu2xのソースコード読んでコンボリューションの初期値あわせてみたり、
変な処理をしていたのを直したり色々やったところ1dB改善しました (PSNR=28.5dB)。
視覚的には大幅な画質向上があります。

AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。

言われたところは全部直したつもりなんですが、誤差関数が何かやってる様子。
よくわかりません。HunberLossも使っているのか使ってないのかわかりませんし...。

とりあえず1バッチ=12画像、1エポック=100バッチで2000エポックで学習が
収束しきってないのでがんばればPSNR=29dBまでは行くと思うんですが
31dBかかなり厳しいです。30dB行ったら諦めます。

俺的には学習データ数が少ない、augumentationがまずいってところかなあと思います。
学習データはすごく重要なんですけど、俺にはそこに情熱がない...。

こっちの学習データは250枚、augumentationは上下、左右反転、45度ローテーション、
ノイズ付加、画像縮小です。

ほんまwaifu2xはエンジニアリングの塊なので一朝一夕には追いつけませぬ。
(諦めてるので追いつく気なし)

662 :名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW):2017/02/17(金) 22:19:08.74 ID:AmcVWIz30.net
>>661
HuberLossは使っていますが多分それほど関係ないです。(というかMSEのほうがPSNRは高くなると思います)
誤差はノイズ除去で色が劣化しているのを直すときに
下げれる誤差に限界があるので、YUVのYの重み(0.299 × R + 0.587 × G + 0.114 × B)にあわせて
チャンネルごとの誤差の重みを調節しているだけなので、拡大の場合はそれほど関係と思います。
学習データが少ないのはあるかもしれないですが、今はパッチを切り出さずに画像単位でforward/backwadしているでしょうか?
小さなパッチを切り出してからシャッフルして小さいminibatchで学習するのはとても重要です。
画像単位だと例えば1280x720だった、出力が86万個の変数になって
この平均誤差をbackwardすることになるので、画像内のある小さな領域内で誤差が大きかった場合でも平均されて消えてしまいます。
特にイラストの場合は何もない背景が多くて、そこは誤差がほぼゼロになるため平均されて誤差が消失しやすいです。
(waifu2xはパッチを切り出した後パッチ内が単色背景の場合は50%くらいの確率で捨てるような処理も入っています)
また学習データ少ない場合でも、たとえば96x96のパッチだと画像1枚から70万通りくらいの切り出し位置があるのでデータ増加にもなります。

663 :名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW):2017/02/17(金) 22:33:15.43 ID:AmcVWIz30.net
>AdamのAlphaは小さくしたほうが確かに学習安定します(当たり前)。
あと書いていませんでしたが、0.00025から初めて最終的にその1/10くらいになるように減らしていっています。
Adamは学習率が自動調節されるようなことが書かれていることがありますが
パラメータの要素単位の正規化をやっているだけなのでalphaを減らすのは意味があります。
なので最終的なエポックで1/10くらいになるようにalphaをスケジュールしたほうがPSNRは高くなります。
調節が難しければ、80%くらい進んだ後で1/10にして残り20%を回すくらいでも十分意味があると思います。

664 :名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY):2017/02/17(金) 23:47:35.21 ID:ISS8P0MC0.net
画像は教えてもらったパッチサイズに分割しています
当然シャッフルしています

SGDなんかでは学習率を減衰する正則化は普通ですけど
Adamでも効果あるんですね。というかそんなに小さな学習率で
PSNR向上するのか...。

665 :名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei):2017/02/18(土) 04:13:42.14 ID:3fQ0tPmvM.net
ai搭載してほしい

666 :名無しさん@お腹いっぱい。 (ワッチョイWW 52cf-E1Vt):2017/02/18(土) 13:20:51.75 ID:M/eXR+AJ0.net
deeplearning研究の成果であるwaifu2xがAIでないとしたら何がAIだと言うのかね

667 :名無しさん@お腹いっぱい。 (ワッチョイ f787-eq+O):2017/02/18(土) 13:22:00.41 ID:05aNXszw0.net
>>665
正解を大量に教えれば、その正解に近いものを導くのがAIだけど、あなたの求める正解って何?

668 :名無しさん@お腹いっぱい。 (ワントンキン MMc2-Pmei):2017/02/18(土) 14:02:32.75 ID:3fQ0tPmvM.net
>>667
AIだったとは!

669 :名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY):2017/02/19(日) 20:45:41.75 ID:Io/fs1qe0.net
超解像で遊んでいる人です。

waifu2xの方の話を聞いてて自分の中で結論が出たのはSRCNNの
画質はずばり精度で決まるということですね。

学習率が異様に小さいのが納得していなかったのですが、
多分SRCNNの重みの調整は超絶微細な学習です。
なので高めの学習率で荒い調整したら細かい調整がいるのかなと思います。

例えるなら7層のネットワークの調整は7枚のレンズの焦点を
あわせるようなもんかなあと思います。

なので処理の過程で精度を落とすような処理は厳禁ですし、
学習データも多い方が明らかに有利です。
なのでかなり気をつかった実装が必要かなと思います。

PSNRは改善してきましたが、やはりノウハウの塊であるwaifu2xを
越えるのは難しいかなと思います。自分はアルゴリズムの方に
興味があるのでそっちがんばります。

自分とwaifu2xの作者の方は目指しているところがまったく逆なので
競合しなかったのが救いです。

670 :名無しさん@お腹いっぱい。 (ワッチョイ 7332-K3GY):2017/02/19(日) 20:46:05.85 ID:Io/fs1qe0.net
先日専門家の方からsaliency mapという手法を教えてもらったので
視覚ベースの高精度化の実験やってます。定量化が難しいですけど
なんとなくbutteraugliは向上しそうな気がします。

あとGANの識別器から重要な画素の情報を計算する方法も考えたので
それも実験中です。

手垢が付いてない分野なので色々新しい手法が見つかります。

671 :名無しさん@お腹いっぱい。 (ワッチョイ f7d2-ZUJW):2017/02/20(月) 03:22:48.92 ID:eI9WZF/30.net
SRCNNというか回帰問題なのでそうだと思います。
分類では識別境界に近いところ以外は大雑把でよいですが
回帰だと全ての点を正確に合わせないといけないです。

672 :名無しさん@お腹いっぱい。 (ワッチョイ 5648-Z7AI):2017/02/22(水) 16:16:01.04 ID:RyHb8dzv0.net
おもすれー
http://affinelayer.com/pixsrv/index.html

673 :名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd):2017/02/25(土) 21:08:59.68 ID:lgzXMqNX0.net
アニメとか動画を拡大したい人向けのソフト作ってみた。
http://c00-c03.blogspot.jp/2017/02/waifu2x.html

674 :名無しさん@お腹いっぱい。 (ワッチョイW afe1-sTLI):2017/02/25(土) 21:43:53.51 ID:IaQhgHq50.net
それを使った場合と使わないで普通に全部拡大した場合の結果の違いまだ未検証?

675 :名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd):2017/02/25(土) 22:33:37.42 ID:lgzXMqNX0.net
>>674
動画とブログに書きましたが、速度はこのソフトを使ったほうが早くなります。
画質には普通に拡大した場合と比較して違いはありません。

676 :名無しさん@お腹いっぱい。 (ワッチョイ 7f98-HyQo):2017/02/26(日) 12:08:18.25 ID:lIqm/eYA0.net
動いてないコマは端折ったのね。面白い考え。

677 :名無しさん@お腹いっぱい。 (ワッチョイ bf39-8lb6):2017/02/26(日) 12:35:01.92 ID:zA+f4GY30.net
拡大をCPUで処理してる場合はかなり早くなるんじゃね?

>>676
コマっつーかコマ内のさらに差分じゃね

678 :名無しさん@お腹いっぱい。 (ワッチョイ 6f64-HyQo):2017/02/26(日) 16:36:31.44 ID:/VbKsdDz0.net
http://i.imgur.com/qeqSdax.jpg
http://i.imgur.com/THyF7yT.jpg
http://i.imgur.com/WCzYXqd.jpg
http://i.imgur.com/FZMLAXt.jpg

679 :名無しさん@お腹いっぱい。 (ワッチョイ 6fd2-zPQB):2017/02/26(日) 22:12:33.57 ID:Xy6B3Z1p0.net
面白いな。素材がとにかく低ノイズじゃないと差分がいい具合にならない気はする。
実写だとどうだろうなぁ。実写動画でいろいろ拡大絡みのことはやってみたいと思ってるんだけど。

680 :名無しさん@お腹いっぱい。 (ワッチョイ 7fe5-WLWd):2017/02/26(日) 22:41:32.17 ID:uRk4b+bo0.net
>>679
閾値の値を調整すれば程度は対応できますが、
完成した時にブロックノイズが現れることがあるので調整が難しいですね。

681 :名無しさん@お腹いっぱい。 (ワッチョイ af14-8lb6):2017/02/27(月) 12:23:47.22 ID:GA0WyZxg0.net
ラデオンでも快適に使えるようにしてくだされ

682 :名無しさん@お腹いっぱい。 (ワッチョイ af36-8lb6):2017/02/27(月) 19:28:07.51 ID:S1xW0xg80.net
この差分方式が進化すると裏に進出済み女優の表作品からモザイクを除去できるのでしょうか?

683 :名無しさん@お腹いっぱい。 (ワッチョイWW efa4-ixb7):2017/02/28(火) 12:49:55.55 ID:pSKMH9Zc0.net
>>678
コイツです。

684 :名無しさん@お腹いっぱい。 (ワッチョイ 3a44-kj3l):2017/03/04(土) 17:25:09.45 ID:RVxD/uAR0.net
>>682
学習データの蒐集方法が謎w

685 :名無しさん@お腹いっぱい。 (ワッチョイ ba1a-BJNc):2017/03/05(日) 00:58:28.30 ID:xeJSOFvy0.net
個人ごとに好みがあると思うので各人で学習させる事もできるといいんじゃないかなw

686 :名無しさん@お腹いっぱい。 (ワッチョイ 6d87-BJNc):2017/03/05(日) 01:54:20.37 ID:nTZYFyha0.net
100万枚くらい正解と不正解の学習用画像もってる人限定か

687 :名無しさん@お腹いっぱい。 (ワッチョイ 7556-TgS+):2017/03/05(日) 22:34:47.95 ID:sbvLrrZw0.net
モザイクと検出された所が全てマンコに置換されて
マンコまみれの悪夢のような画像が生成されるんだな

688 :名無しさん@お腹いっぱい。 (ワッチョイ 6dd2-b6g9):2017/03/06(月) 14:05:04.79 ID:gas2tGQp0.net
マジレスすると、モザイクの範囲や解像度は入力によって異なるので復元を学習するのはなかなか難しいと思う。
モザイクの顔が復元できるよみたいなデモは
入力が8x8のモザイクで出力も位置合わせされた顔しかありえないなど限定された条件の結果なのでまだ実用的ではない。

689 :名無しさん@お腹いっぱい。 (ワッチョイ ba39-BJNc):2017/03/06(月) 19:34:14.98 ID:N2MWaHxD0.net
パネルアート画像がモザイク認識されてとんでも画像へと処理される奇劇のヨカン(´∀`ミ)

690 :名無しさん@お腹いっぱい。 (ワッチョイ 6be5-9O7/):2017/03/09(木) 21:30:19.36 ID:+vcVYOGF0.net
>>681
約4倍の高速化したバージョンを公開したのでもしよかったら試してみてください。
http://c00-c03.blogspot.jp/2017/02/AniZipReleaseNotes.html

691 :名無しさん@お腹いっぱい。 (ワッチョイ 639e-oGwt):2017/03/10(金) 09:35:55.09 ID:RMdt2oaF0.net
実写は無理だった

692 :名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA):2017/03/11(土) 14:37:39.60 ID:SU15X7fC0.net
AMDでwaifu2x

http://inatsuka.com/extra/koroshell/ でwaifu2x_koroshellをDL
http://d.hatena.ne.jp/w_o/touch/20150629/1435585193 で
waifu2x-converter_x64_0629_02.zipをDL
waifu2x_koroshellを入れて
waifu2x_koroshellの中のwaifu2x-converterにwaifu2x-converter_x64_0629_02の中身上書き

waifu2x_koroshellで動かすとGUIでOpenCL使える

693 :名無しさん@お腹いっぱい。 (ワッチョイ e339-KHUK):2017/03/12(日) 06:36:21.76 ID:hZc07GQB0.net
>>696
何でわざわざそんな古いバージョンを…
20160101が最新だよ
http://d.hatena.ne.jp/w_o/20150629/1451664048

あと最近、海外の人が作った派生もある
https://github.com/DeadSix27/waifu2x-converter-cpp/releases

同梱されているモデルのバージョンが新しい
ノイズ除去レベル3が追加されている(なぜかレベル0は追加されていないが)
今後も更新がありそう
などのメリットがある

694 :名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO):2017/03/12(日) 13:25:52.96 ID:PEldwp8G0.net
>693
tanakamura氏版から派生したようですね。RX460で正常動作。

ただ、透過画像との相性問題も引き継いじゃってるので、修正されたらいいなぁ。

695 :名無しさん@お腹いっぱい。 (ワッチョイ e532-4mgA):2017/03/14(火) 06:01:16.34 ID:ytw58lnz0.net
>>693
それだとkoroshellに入れても使えないし
692のはkoroshellを使った操作が楽な方法よ

696 :名無しさん@お腹いっぱい。 (ワッチョイ e3c6-bLfO):2017/03/15(水) 01:31:35.13 ID:NMYyqaAt0.net
>695
koroshellフォルダに「waifu2x-converter」サブフォルダ作って、
「waifu2x-converter_x64.exe」にリネームすれば、使えますよ。
ノイズ除去は、なし(Lv0)、弱(Lv1)、強(Lv2)までしか選べないので、
Lv3使えないけど。

697 :名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN):2017/03/17(金) 17:24:03.19 ID:FhgIFmLg0.net
自分用にこういうの作ったから良かったらどうぞ
基本的にただのフロントエンドなので元のソフトの機能しか使えないですが
http://i.imgur.com/6j4XHEy.png
https://www.dropbox.com/sh/0y9scaml78otum2/AAAs4sTIHQWn_UfYCwwC95VKa?dl=0

https://www.virustotal.com/ja/file/67cc556ad135c2ab85d83b4bd92e6735b873904ff42a38f9022719435996d9e9/analysis/
https://www.virustotal.com/ja/file/c06ba95ca00297f0d7e8892bb350899337d50f7c30a5f9e104e58e8ba96107d7/analysis/

かなり強引な方法ではあるけど、フォルダも処理出来る(多分)ので>>673フソフトとも連携できるはず

698 :名無しさん@お腹いっぱい。 (ワッチョイ 7d99-tpgq):2017/03/17(金) 23:03:21.46 ID:fptxaYtO0.net
全く見てないけどkoroshellの代わりになるようなもの
という認識で良い?

699 :名無しさん@お腹いっぱい。 (ワッチョイ 3a82-bHoN):2017/03/17(金) 23:37:27.66 ID:FhgIFmLg0.net
>>698
基本的にはそういう感じですが使い勝手は異なるのでどちらが良いかは人によるかと思います。
具体的には画像をドラッグ&ドロップしただけでは変換が始まらないので何枚もポンポン放る使い方をする方はkoroshellのほうが良いかもしれません。

koroshellより優れていると思うところは

フォルダをサブフォルダごと処理出来る(多分)
同梱モデルが新しい
最初からtanakamura氏のwaifu2x-converter-cppを同梱をしてあるので差し替える必要がない
イラスト用モデルと写真用モデルの切り替えができる
ノイズ除去レベル 0〜3まで使用可能

ですかね。

700 :名無しさん@お腹いっぱい。 (ワッチョイ 9619-i8cA):2017/03/18(土) 16:30:49.66 ID:SMS+/6Qv0.net
700

701 :名無しさん@お腹いっぱい。 (ワッチョイ 45e2-mE/U):2017/03/18(土) 16:48:11.10 ID:uCDPIZXT0.net
D&Dモードも実装して(はぁと)

702 :名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv):2017/03/31(金) 14:45:23.84 ID:BqzZfGSY0.net
waifu2xのすごさを実感したわ
幅720ピクセルの画像をFHDにして壁紙で耐えられる
まあイラストだから許せるのもあるけど

703 :名無しさん@お腹いっぱい。 (ワッチョイ c146-1gvu):2017/03/31(金) 18:13:13.97 ID:2g/H5pQj0.net
昔付き合ってた女のいろんな画像とか、waifu2xで拡大して遊んでるわw
流石に昔のスマホの素人撮りだから、2倍以上だと粗が目立つけども・・・

閑古休題、DenoiseNetも今後期待できそうね
https://pbs.twimg.com/media/C1tjW1qWIAAEpJw.jpg
https://arxiv.org/abs/1701.01698

704 :名無しさん@お腹いっぱい。 (ワッチョイ c999-agmj):2017/03/31(金) 23:36:18.06 ID:iFk//65N0.net
>>703
ホクロが消えてシワが消えて
若返り画像生成ツールやね

705 :名無しさん@お腹いっぱい。 (ワッチョイ d146-YuVY):2017/04/02(日) 23:42:14.76 ID:P/TEvgCC0.net
縦横幅を指定って7680x4320みたいな指定でいいのね

706 :名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog):2017/04/03(月) 00:01:52.18 ID:j7vFn78H0.net
>>705
何の話かと思ったら更新来てたのね

waifu2x-caffe ver 1.1.8.1
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.1
GUIで変換後の縦横幅でサイズ指定を追加
CUIで変換後の縦横幅を同時に指定できるようにした
GUIの翻訳にフランス語追加

707 :名無しさん@お腹いっぱい。 (ワッチョイ 1382-FZog):2017/04/03(月) 00:19:45.25 ID:j7vFn78H0.net
ところで↓の話ってどうなったんですかね?

CUDA on AMD GPUs, now possible? · Issue #71 · lltcggie/waifu2x-caffe
https://github.com/lltcggie/waifu2x-caffe/issues/71

MIOpenは2017年の第1四半期にリリース予定って聞いたんですが、まだリリースされてないのかな?

708 :名無しさん@お腹いっぱい。 (ワッチョイ c999-E+Pv):2017/04/03(月) 00:59:01.62 ID:/CKofziZ0.net
ある程度大きい画像だと違いはあまり感じられないのね

709 :名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ):2017/04/03(月) 18:49:25.18 ID:X2+lQHyy0.net
>>706
ver 1.1.8.1使おうとしたらCUDAドライバ無いッスってエラーが出た
前のverはNVIDIAのドライバ入れてGPU変換出来てたのに何でだろう
今新たにドライバ入れなおし中

710 :名無しさん@お腹いっぱい。 (ワッチョイ 29f6-SPHJ):2017/04/03(月) 23:08:06.81 ID:X2+lQHyy0.net
ドライバ更新したらCUDA変換できた

>ある程度大きい画像だと違いはあまり感じられないのね
画像によるけどフォトショ等で一旦縮小してからやると綺麗になったりする時もあるよ

711 :名無しさん@お腹いっぱい。 (アンパン d146-YuVY):2017/04/04(火) 06:54:31.05 ID:IKEv3bLo00404.net
ん、GUIで高さ指定の場合に入力値が横幅として処理されちゃってる?
横幅指定は正しく横幅になり、縦x横指定の場合もその通りになる
ファイル名の付き方は指定の通りになってる

712 :名無しさん@お腹いっぱい。 (ワッチョイ 3720-+TA9):2017/04/08(土) 18:15:39.34 ID:rclrmZXV0.net
>>711
致命的バグが修正されませんね。

713 :名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP):2017/04/16(日) 21:27:24.07 ID:pBocPxZ/0.net
バージョンアップ来そうな予感

714 :名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP):2017/04/16(日) 21:37:19.02 ID:pBocPxZ/0.net
waifu2x-caffe ver 1.1.8.2
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.2
出力フォルダを選択するときにエラー落ちすることがあるバグを修正
GUIで縦幅サイズ指定にしても横幅の指定と認識されるバグを修正
出力深度ビット数を入力で変更できないようにした

715 :名無しさん@お腹いっぱい。 (ワッチョイW 136c-Qdgp):2017/04/17(月) 00:16:48.95 ID:Fnf2sWjg0.net
今繋がらなくなってる?
プロキシエラーになる

716 :名無しさん@お腹いっぱい。 (ワッチョイ 136c-pzmP):2017/04/17(月) 00:40:06.64 ID:3EuGOoc40.net
>>715
こっちは繋がるよ

717 :名無しさん@お腹いっぱい。 (ワッチョイ 2987-mJZ7):2017/04/30(日) 20:09:22.51 ID:tNItES6T0.net
このソフト便利だなあ
写真で使うと解像感があがる
塗り絵になってしまうのは仕方ないけど縮小して見る分には問題ない

718 :名無しさん@お腹いっぱい。 (ワッチョイ 8b54-XZJj):2017/05/02(火) 15:42:24.70 ID:JQ04n9gT0.net
これすげえ。

ディープネットワークによる
シーンの大域的かつ局所的な整合性を考慮した画像補完
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/ja/

様々なシーンの画像補完(Places2データセット)
http://hi.cs.waseda.ac.jp/~iizuka/projects/completion/images/results/results.png
顔画像の補完(CelebAデータセット)

719 :名無しさん@お腹いっぱい。 (ワッチョイ 513b-Ahd3):2017/05/02(火) 15:58:18.77 ID:vtKwUtbN0.net
>>718
なにこれ使い道一つしか思い浮かばない

720 :名無しさん@お腹いっぱい。 (アウアウカー Sa75-Ke9a):2017/05/02(火) 16:57:06.66 ID:taLs0zcqa.net
>>719
通報した

721 :名無しさん@お腹いっぱい。 (スッップ Sd33-g2qj):2017/05/02(火) 17:17:39.08 ID:qDVWDXWEd.net
これであの水玉を消せるんやな!

722 :名無しさん@お腹いっぱい。 (ワッチョイW 7143-3+xq):2017/05/02(火) 17:18:42.61 ID:pqsa/JXr0.net
そもそも学習用のモデルが用意できねぇw

723 :名無しさん@お腹いっぱい。 (アウーイモ MM3d-GyyV):2017/05/02(火) 19:11:17.40 ID:XTKWh3siM.net
学習用モデル=世界中で公開されているネット上の画像っていうパターンか。

724 :名無しさん@お腹いっぱい。 (ワッチョイ 136c-odTx):2017/05/02(火) 21:16:59.37 ID:5cXtYQYl0.net
>>718
早稲田のチーム凄いな

725 :名無しさん@お腹いっぱい。 (ワッチョイ fbdd-Zeij):2017/05/03(水) 00:00:51.86 ID:+CxIcRIL0.net
ここに書いて良いのか分かりませんが waifu2x-caffe ver 1.1.8.2
GUIで 出力深度ビット数を16bitにして終了しても設定が保存されません。
(Setting.ini で常に LastOutputDepth=8 になる)

726 :名無しさん@お腹いっぱい。 (ワッチョイ 9387-QxBz):2017/05/03(水) 23:06:21.15 ID:ImwEXeaO0.net
>>719
水着とか消しても裸にはならずに水着が生成されるだけだとおもうぞw

727 :名無しさん@お腹いっぱい。 (ワッチョイ 3fff-Ogwz):2017/05/04(木) 01:20:29.54 ID:G2y9UVJf0.net
>726
横に別の裸婦おいとけばそういうものと解釈されると思われ

728 :名無しさん@お腹いっぱい。 (コードモ 0287-kvki):2017/05/05(金) 07:07:35.10 ID:x1hI7Qpd00505.net
waifu2x-caffe 1.1.8.2
拡大サイズの縦横幅で指定にチェックした状態で、変換モードをノイズ除去だけにしてもリサイズされちゃうな

729 :名無しさん@お腹いっぱい。 (ワッチョイ 26ee-W+y+):2017/05/06(土) 21:46:20.63 ID:IOuQ7Cr50.net
waifu2x-caffe作者様:
出力パスに.(UpRGB)(noise_scale)(Level2)(height 1920).jpgとかを
一切付与しない動作設定OPって追加出来ませんかね?

730 :名無しさん@お腹いっぱい。 (ワッチョイW abb3-QmZ/):2017/05/06(土) 23:16:08.90 ID:4rqar1y80.net
コマンドラインから使えばいいじゃん

731 :名無しさん@お腹いっぱい。 (ワッチョイ 4286-Ogwz):2017/05/07(日) 00:14:14.19 ID:2eNDc51j0.net
複数ファイル渡せば付与されたフォルダが作られた中に元のファイル名で保存されるやん(単ファイルでやってるならファイル名入れなおせば?)

732 :名無しさん@お腹いっぱい。 (ワッチョイ 67d9-Ogwz):2017/05/09(火) 10:49:10.46 ID:z00DZkJZ0.net
>>718

性欲はイノベーションの母

733 :名無しさん@お腹いっぱい。 (ワッチョイ 3f0f-PP+T):2017/05/09(火) 17:09:22.63 ID:bfkz6Z1j0.net
あっそ

734 :名無しさん@お腹いっぱい。:2017/05/10(水) 10:54:53.09 ID:9A/riYfT0.net
仕事で衛星写真系の超解像を齧ってるんだが
既存のアルゴリズムだとなかなか思ったようにはいかないものだな
学習ベース(元画像から縮小)は現状数十万件あることは有るのだが

735 :名無しさん@お腹いっぱい。 (ワッチョイ e654-HG4F):2017/05/10(水) 11:23:44.94 ID:UuXmik9X0.net
>>734
これの建物のデモとか面白いよ

Image-to-Image Demo
https://affinelayer.com/pixsrv/index.html

736 :名無しさん@お腹いっぱい。 (ワッチョイ 3fff-Ogwz):2017/05/10(水) 15:49:05.06 ID:uNxg2QHm0.net
>734
学習させる正解って何って世界で、ゴースト出ても味があるとかじゃ清まされないからねぇ

737 :名無しさん@お腹いっぱい。 (ワッチョイ 13ec-bQOW):2017/05/11(木) 16:24:41.03 ID:SMDSeqjX0.net
衛生写真の超解像ってセンサ的に撮れないものを出そうとしているならそれは無理なので
検出したい物体だけ小さくても周りの状態や別の情報から検出できるようにするとか問題設定を変えたほうがいい気がする
最近kaggleでも衛生写真の領域分割(車、道などの分類)や位置合わせなどやっていたよ

738 :名無しさん@お腹いっぱい。 (ワッチョイ d387-LCn8):2017/05/13(土) 09:19:13.00 ID:dJt40kY10.net
これ、ループが何回で終わるか分からないのが難点だなあ
start process block (*,*) ...
の数字が減少する方向で書いてあればいいのに

739 :名無しさん@お腹いっぱい。 (ワッチョイ 3f3a-+8ye):2017/05/13(土) 15:49:39.24 ID:FAb2LKwd0.net
>>692
これの導入が間違ったのかな
waifu2x_koroshellが本体?
waifu2x_koroshellのwaifu2x-converterフォルダにwaifu2x-converter_x64_0629_02の中身上書きしたら応答停止になった

つかwaifu2x_koroshellオリジナルが2分半かかったけどtanakamuraオリジナルは30秒未満だったよw

740 :名無しさん@お腹いっぱい。 (ワッチョイ c335-8ulf):2017/05/13(土) 23:40:32.01 ID:P6F+VILj0.net
tanakamuraってまだ更新してるの?

741 :名無しさん@お腹いっぱい。 (ワントンキン MM5f-DjQ0):2017/05/14(日) 15:16:16.36 ID:1GR9xMZmM.net
止まってる

742 :名無しさん@お腹いっぱい。 (ワッチョイ c38c-X8tp):2017/05/15(月) 01:11:02.50 ID:NgqhOYwL0.net
waifu2x-caffe ver 1.1.8.3
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.3
縦幅か横幅指定の拡大で、計算誤差が原因で指定サイズから1pxくらいずれることがあるのを修正
日本語環境以外でCUIの出力が文字化けしていることがあるのを修正
cuDNN v6に対応

743 :名無しさん@お腹いっぱい。 (ワッチョイ bf6c-MtWk):2017/05/15(月) 05:45:05.44 ID:yjuDx3R10.net
>>742
このスレで報告されたバグは修正されてない?
もうこのスレ見てないのかな
見てるけど重要度低いと判断されて後回しになってるのかもしれないけど

744 :名無しさん@お腹いっぱい。 (ワッチョイ f657-kvD5):2017/05/19(金) 09:05:30.88 ID:GMrJ8uZy0.net
AMD版更新・・・

745 :名無しさん@お腹いっぱい。 (ワッチョイ 33a7-kvD5):2017/05/19(金) 13:22:34.26 ID:g46aCL8V0.net
waifu2xすげーな
アプコンの美しさ、処理の速さ、生成ファイルの容量、ひとつも不満なし
久々に神ソフトに出会ったわ

746 :名無しさん@お腹いっぱい。 (ワッチョイ deee-cm4/):2017/05/22(月) 16:39:55.09 ID:TBnT4kBv0.net
不満をしいてあげれば、にじみ(ボヤケ)かな。
画数の多い文字が含められてる画像を処理した場合とかに特に目立つ。

747 :名無しさん@お腹いっぱい。 (アウーイモ MM2f-K9MP):2017/05/22(月) 19:07:44.33 ID:pWmGSvMIM.net
にじみというより溶けてる。
アンチエイリアスでもかけたくなる

748 :名無しさん@お腹いっぱい。 (ワッチョイ 03ff-kvD5):2017/05/22(月) 19:30:46.99 ID:TeLMEihh0.net
ノイズ除去オフにしてみたら?

749 :名無しさん@お腹いっぱい。 (ワッチョイ ca86-kvD5):2017/05/22(月) 19:39:45.16 ID:VCQWXW2m0.net
普通に拡大するよりかなりマシだとは思うけど
その画数が多い文字ってそもそも小さくて点のあつまりみたいになってるようなのじゃないの?

750 :名無しさん@お腹いっぱい。 (ワッチョイ 9ea5-kvD5):2017/05/24(水) 03:21:38.21 ID:029zNDOI0.net
>>744
どこのこと?w

751 :名無しさん@お腹いっぱい。 (ワッチョイ 9f6c-JG13):2017/05/25(木) 18:25:43.19 ID:65GD6j0N0.net
!?

https://twitter.com/ceekz/status/867657726066737153
eBookJapan が waifu2x に目を付けたものの、マンガ画像での画質には満足できる結果が得られなかったので、作者の nagadomi 氏と共同研究したとのお話、超いい話。 #jsai2017

752 :名無しさん@お腹いっぱい。 (ワッチョイ 5b63-JG13):2017/05/25(木) 19:29:59.98 ID:eyGOFKtj0.net
お前らは元データの解像度上げろよw

753 :名無しさん@お腹いっぱい。 (ワッチョイ dfe0-fkwH):2017/05/25(木) 22:15:17.68 ID:kUHM1/vo0.net
ホントだよ

754 :名無しさん@お腹いっぱい。 (ワッチョイ 9f86-9J/J):2017/05/26(金) 04:30:43.98 ID:nRPx0DCl0.net
どれだけひどい元解像度を想定してるの (((´・ω・`)

755 :名無しさん@お腹いっぱい。 (ワッチョイ 6b87-9J/J):2017/05/26(金) 16:30:06.46 ID:EQGpWO780.net
サーバーにクソ画像で保存(容量節約)
購入者宅でwaifu2x拡大
という流れか

756 :名無しさん@お腹いっぱい。 (ワッチョイ 0fec-YwAU):2017/05/26(金) 17:05:25.15 ID:8jEqXNTn0.net
まともな画質になる範囲なら大アリだと前から思ってたけど
読みながら拡大じゃ遅すぎるから
買ってダウンロードした直後か読む前に全ページ拡大かねえ
それにしたって時間かかるな
画像部分と写植部分のデータを分けて文字はリアルタイムレンダリングなら理想じゃねって思ってる
フォントは必要に応じてダウンロードされる想定

757 :名無しさん@お腹いっぱい。 (ワッチョイ eb32-MgrD):2017/05/26(金) 17:22:43.39 ID:c9AYd7GP0.net
いずれにせよ、この手の技術が企業側の手にかかった時、
ユーザにメリットなんてほとんど考えられないと思うのは俺だけか

758 :名無しさん@お腹いっぱい。 (ワッチョイ bb03-XXO+):2017/05/26(金) 19:16:01.27 ID:WYvdqFs/0.net
文字の多くが吹き出し内に収まっている画像なら恩恵が大きそう
黒ベタやカケアミの上の文字は苦手そうだが

759 :名無しさん@お腹いっぱい。 (ワッチョイ 0fec-YwAU):2017/05/26(金) 23:10:47.80 ID:8jEqXNTn0.net
>>757
それは同感だな...

760 :名無しさん@お腹いっぱい。 (ワッチョイWW df8e-1Uaq):2017/05/27(土) 06:59:40.02 ID:83m0YSC30.net
資本投入で開発スピードアップ、変換品質アップするなら有料でもなんら問題はない
むしろ現状の「タダで使えるのが当たり前」を前提にしていることのほうが、よほど不自然だ

761 :名無しさん@お腹いっぱい。 (ワッチョイ ef57-9J/J):2017/05/27(土) 13:18:06.97 ID:OKArgZIU0.net
>>750
スマン、まだかなーって待ちわびてるのよw

762 :名無しさん@お腹いっぱい。 (ワッチョイ 8be0-MgrD):2017/05/27(土) 15:29:04.19 ID:SF5b7Q1g0.net
どう考えてもトーンで爆死だろ

763 :名無しさん@お腹いっぱい。 (ワッチョイ 7bf8-9J/J):2017/05/28(日) 05:24:34.22 ID:fiLf1wF90.net
>>760
今だとIPを育てるよりもいかに換金するかって方向になりがちには思える
企業にも以前ほどは余裕が無いんだ

764 :名無しさん@お腹いっぱい。 (ワッチョイ eb32-lYDY):2017/05/31(水) 07:02:52.19 ID:vM+I0McW0.net
http://106.imagebam.com/download/aZJsAhVxEI6009OViXubpw/29366/293658706/bicycles-144.jpg

765 :名無しさん@お腹いっぱい。 (ワッチョイ 2589-lzDu):2017/06/01(木) 16:55:53.64 ID:HaB1LARk0.net
waifu2x-caffe_Difference_From_ver1.8.0.zip
1.1.8の間違い?

766 :名無しさん@お腹いっぱい。 (ワッチョイ 6632-k7rq):2017/06/03(土) 08:15:36.26 ID:qOKxzklB0.net
http://ist3-6.filesor.com/pimpandhost.com/1/_/_/_/1/4/v/T/X/4vTXO/Cul_nu-051_l.jpg

767 :名無しさん@お腹いっぱい。 (ワッチョイWW ea8e-W5jK):2017/06/20(火) 23:50:36.91 ID:lcWK/YJq0.net
ディープラーニングシステムの主要要素(モデルなど)の再現や入れ替えを容易にして研究を促進するGoogleのTensor2Tensorが一般公開
http://jp.techcrunch.com/2017/06/20/20170619tensor2tensor/

近頃、あまり動きはないようですが、これ以上の改良などは特になさそうなのかな?

768 :名無しさん@お腹いっぱい。 (ワッチョイ bf67-LRJs):2017/06/27(火) 00:44:09.93 ID:YRRyu61z0.net
>>707
AMD、Vega世代のGPUを搭載した機械学習向けの「Radeon Instinct MI25」
http://news.mynavi.jp/news/2017/06/26/330/
> なお、MIOpenとROCmに関しては、6月29日の公開を予定する。

769 :名無しさん@お腹いっぱい。 (ワッチョイ 9f6c-iV7a):2017/06/27(火) 01:56:04.79 ID:Ejj/j5kL0.net
>>768
お、ついに来るか。
ところでMIOpenってAMDの古いGPUでも使えるのかな?
なんかRadeon Instinctシリーズ限定っぽい感じもするが。

770 :名無しさん@お腹いっぱい。 (ワッチョイ f7f9-nEVa):2017/06/27(火) 02:19:37.15 ID:QcSZqwrU0.net
米尼から買った1080Tiを1060に追加して(学習ベース構築の段階)24時間回してるんだが
工業扇が50wくらい食ってるが、1月あたりの電気代が6千円→1万越えにw 

ガレージ設置で計測機が別系統なのでわかりやすい・・・設置するまでは基本料金に収まってたのよね

771 :名無しさん@お腹いっぱい。 (ワッチョイWW 928e-+NMm):2017/06/30(金) 00:00:38.38 ID:YwpeVX100.net
電力会社の見直しだ!!

772 :名無しさん@お腹いっぱい。 (アークセーT Sx71-ZBdv):2017/07/02(日) 08:01:39.54 ID:WTrkZN+Xx.net
「拡大サイズは0より大きい整数である必要があります」というエラーが出るのですが

どなたか解決法を教えてください、お願いします

773 :名無しさん@お腹いっぱい。 (ワッチョイ c26c-POtP):2017/07/02(日) 14:07:31.97 ID:rKTJKeju0.net
>>772
拡大率の指定で全角数字を入力してるとか?

774 :名無しさん@お腹いっぱい。 (アークセーT Sx71-ZBdv):2017/07/02(日) 16:35:48.85 ID:WTrkZN+Xx.net
>>773
ご指摘ありがとうございます

「変換後の縦横幅で指定」の項目に「縦幅」の数値を誤って入力していました(ノ∀`)

775 :名無しさん@お腹いっぱい。:2017/07/05(水) 03:12:15.72 ID:8BRCvh6/G
https://github.com/tamaina/kogasa/releases/tag/v0.1.0

776 :名無しさん@お腹いっぱい。 (ワッチョイ 426c-q9Kq):2017/07/05(水) 10:46:00.75 ID:uTzApKYp0.net
もうずっと502 Bad Gateway
頻繁にこれ出るんだけどもうちょっと何とかならんのか
PC的にweb版しか使えないから辛い

777 :名無しさん@お腹いっぱい。 (ワッチョイ 9f6c-URZV):2017/07/06(木) 08:08:51.99 ID:/U2eBeXh0.net
落ちてる間は代替サイトでしのぐしか無いね

waifu2x-multi
http://waifu2x.me/index.ja.html

Waifu2X!
http://waifu2x.booru.pics/

778 :名無しさん@お腹いっぱい。 (ワッチョイ d732-1B52):2017/07/08(土) 12:05:31.07 ID:MTSa9P4x0.net
http://pbs.twimg.com/media/B3rl-WcCYAA4h98.jpg
http://pbs.twimg.com/media/B3rl-VlCAAIvWn9.jpg
http://pbs.twimg.com/media/B3rl-X6CUAIB9Lc.jpg
http://pbs.twimg.com/media/B3rl-YFCUAE_x2p.jpg
http://i.imgur.com/HbCxNbF.jpg
http://i.imgur.com/wg9q7YT.jpg

779 :名無しさん@お腹いっぱい。 (アウアウアー Sa4f-A48S):2017/07/08(土) 21:16:36.36 ID:bLbQGezTa.net
グロ

780 :名無しさん@お腹いっぱい。 (ワッチョイ 626c-qt4g):2017/07/15(土) 02:32:50.65 ID:Zi3CbZ/c0.net
これ中国のアプリが勝手にweb版のwaifu2xを利用してるってこと?
最近web版が不調らしいのってこれのせい?

Is it suitable for third party app to use online demo's api? · Issue #190 · nagadomi/waifu2x
https://github.com/nagadomi/waifu2x/issues/190

781 :名無しさん@お腹いっぱい。 (ワッチョイ cee0-1bhL):2017/07/15(土) 14:45:57.36 ID:G3EyFNGP0.net
作者としては自力で鯖建ててくれよってなもんのようだが

782 :名無しさん@お腹いっぱい。 (ワッチョイW 2987-3jPz):2017/07/15(土) 22:32:16.45 ID:Kox/QIdc0.net
もうこのサイト終わりか?
全く使えねー

783 :名無しさん@お腹いっぱい。 (アウーイモ MM3a-X3kf):2017/07/16(日) 22:57:45.74 ID:Ww7Ywr2NM.net
>>760
Adobe社が開発協力したらいいのに、

784 :名無しさん@お腹いっぱい。 (アウーイモ MM3a-waq5):2017/07/17(月) 22:45:44.84 ID:oOoQzt3uM.net
>>783
というより、ほかのソフト開発者なり開発会社が未だに参入してこないことに不自然さを感じる。
本家自体も最近動きがないところを見ると、何かしらの根本的な問題でも抱えているのだろうか?
最近madvrの拡大処理の進展具合を見ていないからわからんが、あちらのほうが未来があるのだろうか?

785 :名無しさん@お腹いっぱい。 (ワッチョイWW 6671-YOS7):2017/07/17(月) 23:11:35.28 ID:VhJWbd/M0.net
基本アニメにしか効果ない上に拡大後はベタ塗り状態じゃ企業が名乗り出る訳ないわ

786 :名無しさん@お腹いっぱい。 (ワッチョイ 8ef7-6l0k):2017/07/18(火) 00:55:39.73 ID:GPjcpwot0.net
ノイズ除去切ればベタ塗りにはならんでしょ

787 :名無しさん@お腹いっぱい。 (ワッチョイ 626c-qt4g):2017/07/18(火) 01:09:41.09 ID:WRy8/mpM0.net
超解像の研究は割とどこもやってると思う多分
waifu2xと提携しなくても独自に出来るし水面下でやってるから動きが見えにくいだけじゃない?

788 :名無しさん@お腹いっぱい。 (ワッチョイ c08e-1CH6):2017/07/18(火) 01:16:51.66 ID:u0xTs1V00.net
刑事ドラマではwaifu2xもびっくりの鮮明な解像度拡大がある設定の世界なのに
現実は無慈悲なのである

789 :名無しさん@お腹いっぱい。 (ワッチョイ 9605-S4qQ):2017/07/18(火) 01:24:18.89 ID:MN/RSjUs0.net
NECの技術
http://i.imgur.com/hYJMZl4.png

http://jpn.nec.com/ad/onlinetv/rd/srt_h.html

790 :名無しさん@お腹いっぱい。 (ワッチョイ aef9-QOkd):2017/07/18(火) 01:45:26.20 ID:PfbLynbe0.net
大手企業かつ政府支援プロジェクトともなると
ASIC/FPGAにも詳しいエンジニアも容易に自社調達できる良い環境だなぁ
最適化したコードかつ、自社生産のカスタムASICを利用した電算機にとか羨ましい

個人趣味で汎用コンピュータを使っている以上、電気代も馬鹿にならん
ライブラリ構築だけでも面倒クセぇ、処理能力レンタルするとこれまたコストが

791 :名無しさん@お腹いっぱい。 (アウアウアー Sa4f-ZaLW):2017/07/21(金) 17:11:59.13 ID:R67DHQtba.net
・ ディープラーニングエンジンをUSBチップ化してエッジコンピューティングをサポートするMovidius、Intelに買われてから快調
http://jp.techcrunch.com/2017/07/21/20170720movidius-launches-a-79-deep-learning-usb-stick/

新たなる展開か?

792 :名無しさん@お腹いっぱい。 (ワッチョイ c767-E/h9):2017/07/21(金) 17:55:45.69 ID:44OoZVhG0.net
100GFLOPSだと性能的にどうなんじゃろ…1Wなのは良いけど

793 :名無しさん@お腹いっぱい。 (ワッチョイ dfee-RieY):2017/07/21(金) 18:26:05.54 ID:jzbSQrJ80.net
USBで127台つけるんやろ

794 :名無しさん@お腹いっぱい。 (ワッチョイ c767-E/h9):2017/07/21(金) 18:57:39.52 ID:44OoZVhG0.net
GeForceにTensorコア積んでくれたほうが嬉しいかなー

795 :名無しさん@お腹いっぱい。 (ワッチョイ e787-Uqpm):2017/07/22(土) 15:23:52.12 ID:KSVHK/ps0.net
ASICやFPGAが主流になってGPUの時代は終わるよ

796 :名無しさん@お腹いっぱい。 (ワッチョイ 8756-E/h9):2017/07/22(土) 17:51:15.37 ID:02zQXlhH0.net
さすがにそれはない
ハードウェアシェーダーから
プログラマブルシェーダーになぜなったのか
ということを知らなさすぎ

797 :名無しさん@お腹いっぱい。 (ワッチョイ 2735-dw5s):2017/07/22(土) 18:00:17.06 ID:n2Cq2gcy0.net
ディープラーニングについては処理がある程度固まってきてるみたいだからGPUは割高になるかもしれんね
ディープラーニングの次が出てきたらプログラマブルに戻る

798 :名無しさん@お腹いっぱい。 (ワッチョイ 7fec-XHdm):2017/07/25(火) 13:51:30.69 ID:W9H2LP1L0.net
cuDNNだけハードウェア化されたらいい

799 :名無しさん@お腹いっぱい。 (ワッチョイ af7e-V1Wy):2017/07/28(金) 20:16:37.80 ID:kjrX+KoL0.net
オープンソースなのにウェブサービスでしか利用できない謎アプリ

800 :名無しさん@お腹いっぱい。 (スップ Sd2a-Lvg/):2017/07/28(金) 20:37:35.56 ID:/uC0CJt+d.net
GUI版はとっくに死んでるのか?

801 :名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj):2017/07/28(金) 20:56:10.38 ID:fO9dUqqy0.net
>>800
caffe版はまだ生きてると思うよ

アプリって言ってるあたり798はスマホでの利用を言ってるんじゃないかな

802 :名無しさん@お腹いっぱい。 (ワッチョイ 6a86-V1Wy):2017/07/28(金) 21:05:32.20 ID:SCeD2ML70.net
スマホでなんかしたらバクハツするんじゃね

803 :名無しさん@お腹いっぱい。 (スプッッ Sd8a-k88C):2017/07/28(金) 21:27:12.12 ID:aleKDasgd.net
caffe版使わずに謎とか言っちゃうの?
恥ずかしすぎじゃないか

804 :名無しさん@お腹いっぱい。 (ニククエ beec-QFBF):2017/07/29(土) 21:22:36.12 ID:ZE6rDzLe0NIKU.net
waifu2xのサーバーが外部のアプリから使用されていて開発者が使うのやめる気ないようなのと
そこからのアクセスが多すぎて処理できないのでreCAPTCHAを導入しました。
クソメンドイですがご了承下さい。
表示されない場合はリロードすると出てくると思います。

805 :名無しさん@お腹いっぱい。 (ニククエ aead-2p8+):2017/07/29(土) 21:34:55.04 ID:GAGld7sU0NIKU.net
乙ですというほかない…

806 :名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj):2017/07/30(日) 02:09:16.58 ID:2BU+9NyM0.net
>>804
乙です
やむを得ないと思います

807 :名無しさん@お腹いっぱい。 (ワッチョイ 7be0-/6gd):2017/07/30(日) 04:49:09.26 ID:LQpeaIGl0.net
>>804
対応乙
災難やったね

808 :名無しさん@お腹いっぱい。 (ワッチョイWW be5d-SW7a):2017/07/30(日) 13:52:11.35 ID:ghAcuX/m0.net
使えない
http://i.imgur.com/Ii3At1t.jpg

809 :名無しさん@お腹いっぱい。 (ワッチョイ beec-QFBF):2017/07/30(日) 14:47:13.09 ID:CvwU+lTS0.net
実行ボタンの上のreCAPTCHAという領域にチェックをつけていると動くと思います。
回答の再利用はできないので、1画像変換ごとにチェックを付ける必要があります。
reCAPTCHA自体が動いていないなどありましたら、実行環境を書いておいて下さい。

810 :名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj):2017/07/30(日) 15:02:06.81 ID:2BU+9NyM0.net
同じGoogle製だけあってChromeだとチェックするだけで動くね

811 :名無しさん@お腹いっぱい。 (ワッチョイ beec-QFBF):2017/07/30(日) 15:16:43.84 ID:CvwU+lTS0.net
分かりにくいので、チェックがついていない時は実行/ダウンロード押せないようにしました。
またページをチェックを付けれていても答えが間違っていると(?)たまに認証に失敗することもあるようです。
チェックだけ済むのは、疑われていないとき?で
何度もやっていると、画像の問題に答えないと通らなくなる気がします。

812 :名無しさん@お腹いっぱい。 (ワッチョイWW be5d-SW7a):2017/07/30(日) 16:52:23.84 ID:ghAcuX/m0.net
AndroidのChromeだとチェック入れても上の画像しか表示も保存もされません
スマホの他のブラウザで試してみたら
表示されるのはいくつかありましたが、保存は出来なかったです

813 :名無しさん@お腹いっぱい。 (ワッチョイ 3703-gqPh):2017/07/30(日) 17:14:32.08 ID:BXnmDPPj0.net
ページをリロードする。キャッシュをクリアする。
もし使ってるなら、広告ブロックソフトを停止する。

814 :名無しさん@お腹いっぱい。 (ワッチョイWW 5371-Lvg/):2017/07/30(日) 17:44:16.19 ID:FyhxV1ef0.net
GUI版で良くない?Web版の方が速いの?

815 :名無しさん@お腹いっぱい。 (ワッチョイ 6a86-V1Wy):2017/07/30(日) 18:03:59.98 ID:tcaEED7w0.net
環境に依存するかしないかの違いがあるんだからバカなの?

816 :名無しさん@お腹いっぱい。 (ワッチョイ ea6c-AvKj):2017/07/31(月) 08:00:14.81 ID:guYKaMwB0.net
807だけじゃなくGithubの一部の外国人ユーザーもreCAPTCHAが上手くいかないって言ってるな
web系は難しいね

817 :名無しさん@お腹いっぱい。 :2017/07/31(月) 22:34:04.82 ID:5UmyApl0M.net
webベースでのサービスは、常に不安定さとの戦いになる。
しかし本家がwebベースでの公開にこだわる以上、ユーザーサイドではどうしようもない。
caffeが唯一の救いではあるが、本家とcaffeの作者それぞれに依存する度合いが高いので、この状態も安定しているとは言い難い。
Gimpのプラグインのような形式にして、ソースコードをオープンにとかならば、誰か頑張るとかで継続性はやや向上するだろうけど。

818 :名無しさん@お腹いっぱい。 :2017/07/31(月) 23:06:43.18 ID:l56LhgPc0.net
>>817
ソースコードはGitHubで公開されてる。

819 :名無しさん@お腹いっぱい。 :2017/08/01(火) 10:28:05.21 ID:yzvIVLUGa.net
>>818
Gimpのプラグインの形式に沿ったソースコードということ

820 :名無しさん@お腹いっぱい。 :2017/08/01(火) 11:59:56.63 ID:njn6WqMWd.net
>>814
GUIの方が圧倒的に速い
フルHD解像度のノイズリダクション最高、倍拡大16bit色512分割でも10秒掛からん

821 :名無しさん@お腹いっぱい。 :2017/08/01(火) 12:29:02.13 ID:P4srvPy4M.net
>>820
VGAによるんじゃないの?

822 :名無しさん@お腹いっぱい。 :2017/08/01(火) 12:48:05.35 ID:5+E1QQJQ0.net
その意味でのVGAって言葉久々に聞いたw

823 :名無しさん@お腹いっぱい。 :2017/08/02(水) 04:45:55.20 ID:8yZ4NqFyd.net
>>821
1070でもP-TITAN Xでもそう変わらんよ
TITAN Xの良いとこは12GBのメモリによる1024分割処理が出来るくらい
8GBじゃたまに出来る640分割が最高かな

824 :名無しさん@お腹いっぱい。 :2017/08/02(水) 08:41:50.10 ID:/4JCEp/20.net
>>823
んーGT730ぐらいと比較してください

825 :名無しさん@お腹いっぱい。 :2017/08/02(水) 14:00:32.01 ID:dePrbMvZ0.net
そんなもん、使う意味すらない

826 :名無しさん@お腹いっぱい。 :2017/08/02(水) 16:23:33.11 ID:fcBUe8KN0.net
ウェブのサーバーは GRID K520 を 4つ使っています。
混んでいる時間帯でなければそれなりに速いと思います。
reCAPTCHAをいれてから連続アクセスしにくくなったからか体感的にはかなり速くなっています。

827 :名無しさん@お腹いっぱい。 :2017/08/02(水) 16:36:29.31 ID:fcBUe8KN0.net
waifu2x-caffeは配布バイナリには含まれていないですがDLL用のインターフェースも持っているので
他のソフトの組み込みにも使いやすいと思います。

828 :名無しさん@お腹いっぱい。 :2017/08/02(水) 18:09:49.64 ID:I8D/7zTO0.net
すごい助かってる
さんきゅ

829 :名無しさん@お腹いっぱい。 :2017/08/03(木) 10:59:47.03 ID:nw5S/WIw0.net
本家繋がりませんな

830 :名無しさん@お腹いっぱい。 :2017/08/03(木) 14:35:42.81 ID:gWZ+CKtM0.net
初めて書き込みます。
本家もmulti?も繋がらない…

しばらく待つしかありませんか?

831 :名無しさん@お腹いっぱい。 :2017/08/03(木) 21:14:58.09 ID:sXtHLgo1M.net
だからネットは信用できないんだよ

832 :名無しさん@お腹いっぱい。 :2017/08/04(金) 19:08:32.54 ID:qsU0qohV0.net
invalid request

833 :名無しさん@お腹いっぱい。 :2017/08/04(金) 22:17:29.26 ID:i658spf7M.net
・ プロの技術を学んだディープラーニングが画像を美しくレタッチ
http://ascii.jp/elem/000/001/526/1526816/

いよいよデカいところが本気出してきましたな。
しかも向こうはレタッチ後の人間が最適化した画像をサンプル画像に持ち出している。
果たして実力や如何に。

834 :名無しさん@お腹いっぱい。 :2017/08/05(土) 05:06:53.16 ID:OkzVSv4J0.net
NVIDIAも
http://pc.watch.impress.co.jp/docs/news/1073443.html

835 :名無しさん@お腹いっぱい。 :2017/08/05(土) 11:11:38.33 ID:EfHQRhVp0.net
>>834
ブレードランナーのエスパーみたいなの作れそう。

836 :名無しさん@お腹いっぱい。 :2017/08/07(月) 06:36:54.54 ID:MnjwDMyA0.net
なんかすげー怪しい派生サイト出来てた

Bigjpg - AI二次元画像の拡大, スマート大きな画像 waifu2x 畳み込み深人工知能ニューラルネットワーク(CNN)無料ロスレスズーム。写真にも対応。
http://www.bigjpg.com/

837 :名無しさん@お腹いっぱい。 :2017/08/07(月) 10:34:43.37 ID:UO2X6lXJd.net
サーバー又借りしてたら草

838 :名無しさん@お腹いっぱい。 :2017/08/08(火) 00:30:49.74 ID:MEpIWrBJ0.net
FFGの勢いは近年すごい気がしたけど、18の一軒で一気に地に落ちたな。
今まで敵をたくさん作ったので、連合を作ってFFGの牙城を崩すなら今しかないのかな。
といっても九州地銀の弱腰経営陣には無理か。あの18が負けてもないのにFFGに下ろうとしたくらいだからなぁw
ちゃんと将来考えて動いてくれよ経営陣w

839 :名無しさん@お腹いっぱい。 :2017/08/08(火) 10:06:25.89 ID:k0j1rJxSM0808.net
何を言ってるんだ、このゲーム脳は…

840 :名無しさん@お腹いっぱい。 :2017/08/13(日) 10:35:09.03 ID:OT9MbAIqM.net
>>833
これ、どこか試せるところないのかな?

841 :名無しさん@お腹いっぱい。 :2017/08/13(日) 10:38:18.15 ID:Mwp0HeZi0.net
>>840
無いね

842 :名無しさん@お腹いっぱい。 :2017/08/13(日) 11:18:59.63 ID:GDcsz5Fda.net
>>841
○| ̄|_

843 :名無しさん@お腹いっぱい。 :2017/08/13(日) 11:37:42.89 ID:VovBq+5f0.net
ディープラーニングの技術って素人だと簡単には手を出せないからサイト上で試せたら便利よね
waifu2xの作者さんの言ってたことを今更痛感するわ

844 :名無しさん@お腹いっぱい。 :2017/08/13(日) 16:45:30.56 ID:Mwp0HeZi0.net
MakeGirls.moe - Create Anime Characters with A.I.!
http://make.girls.moe/

845 :名無しさん@お腹いっぱい。 :2017/08/13(日) 23:54:46.98 ID:ZIbjHeti0.net
>>833の奴、もっと具体的なサンプル画像とかを大きなサイズで公開してくれないと評価のしようがないね

846 :名無しさん@お腹いっぱい。 :2017/08/14(月) 00:03:04.73 ID:ppPX4EZi0.net
>>845
MITの出版物に載るんじゃね

847 :名無しさん@お腹いっぱい。 :2017/08/14(月) 10:36:42.43 ID:xdKrTCwJM.net
サンプル画像、ZIPでくれ

848 :名無しさん@お腹いっぱい。 :2017/08/14(月) 16:02:00.01 ID:vUUbKi4a0.net
>>833
データセットは公開されているので http://groups.csail.mit.edu/graphics/fivek_dataset/
対応を学習することはできますけど
写真の後処理を機械学習で自動でやろうとか実際考えるものでしょうか?
そこは写真作りで一番重要なところだから自分でやりたいと思うんだけど
そこにあまり興味ない人には自動でできたら便利なのかな

849 :名無しさん@お腹いっぱい。 :2017/08/14(月) 21:02:10.99 ID:xdKrTCwJM.net
>>848
どの程度の処理までさせるか次第なのでは?
元画像よりコントラスト比なども含めた変化まで強制的にお仕着せになるならば困るけれど、リンク先が言うレタッチ的な要素が
waifu2xで発生する例の輪郭の不自然さを旨く手直しするような作用をしてくれるのならば、やる価値はあるかと。
いいところだけ旨く流用できれば一番いいのでは?

850 :名無しさん@お腹いっぱい。 :2017/08/15(火) 07:05:53.22 ID:GERdhowG0.net
スマホのアプリで料理の写真を美味しそうに見えるように簡単レタッチするソフトが人気あったからこの手のやつは需要あるんじゃないかな

851 :名無しさん@お腹いっぱい。 :2017/08/15(火) 14:43:30.10 ID:Rjv4SHNTM.net
そこら辺のプログラマでもネタで
深層学習一発ネタやってるし、
まともなプログラマなら誰でもできる
ようになってるんだが

waifu2xのツール類が充実してるのは
基本的な考え方が簡単なのはあるよ

waifu2xがすぐれてるのはそういうところじゃない
ノウハウや学習データセットの
作成だと思うよ

やってみたらわかるけど同じ性能出すの
かなり困難

852 :名無しさん@お腹いっぱい。 :2017/08/15(火) 16:02:59.00 ID:YhlLR/9zM.net
ニューラルネットワーク構造と学習済み辞書 が非常に優秀。
というか世の中これを向上させるための提案が大量に出回ってるけど99割はモノにならない

853 :名無しさん@お腹いっぱい。 :2017/08/15(火) 19:45:09.54 ID:ppzO7+Ky0.net
99割もか

854 :名無しさん@お腹いっぱい。 :2017/08/15(火) 21:31:21.13 ID:7w8yH9sEM.net
千分率…

855 :名無しさん@お腹いっぱい。 :2017/08/16(水) 08:02:09.03 ID:5P8xirai0.net
wwww

856 :名無しさん@お腹いっぱい。 :2017/08/16(水) 10:04:51.69 ID:R7IYTeRwd.net
禿犬使ってると何でも大袈裟にしたくなるんだろ

857 :名無しさん@お腹いっぱい。 :2017/08/16(水) 10:25:41.42 ID:KWgmxR6Ed.net
おまえらネタにマジレス

858 :名無しさん@お腹いっぱい。 :2017/08/21(月) 12:11:16.37 ID:fEWkVfat0.net
>>836
それの中身-----------

よくある質問

どのような技術で使用されています?
最新の深い畳込みニューラルネットワークを用いた。それは知的に品質を失うことなく彼らを大きくする絵の中の雑音とセレーションを減らします。例示の写真を見る

違いは何ですか?
PSのような他のソフトウェアで、絵はまだファジールックを拡大、
および可視ブラーと雑音があります。
当社の製品は絵の線と色のために調整された特別なアルゴリズムとニューラルネットワークを使用し、
この拡大効果が優れている。色はよく保たれており、ほぼ格子または倍増は見えません。
もっと重要なのは、雑音、品質に重大な影響を及ぼすことができない結果、
イメージで見られる。

拡大するのに最適な画像は何ですか?
アニメ/ファンアートの写真は最高です。

859 :名無しさん@お腹いっぱい。 :2017/08/21(月) 12:11:39.99 ID:fEWkVfat0.net
画像の限界は何ですか?
現在3000x3000解像度をアップロードすることができ、10MB以下の写真。

スピードはどうですか?
スタート後予想の処理時間が表示されます。
よっの倍率と画像サイズ、増幅時間が異なり、数分から数十分不等。
実際には予想時間が少し短い時間が少し短い。

なぜ失敗拡大?
ネットワーク環境と同時に受けサーバー使用人数の影響があって、
とても小さい確率が増幅して失敗すること。
もしあなたがこのような状況に会ったら、数分でもう一度試してみてください。

拡大を開始している間はブラウザーを開いたままにする必要がありますか?
もしあなたは登録が、そんなにずっと保持ブラウザを開いて、
さもなくば紛失増幅のピクチャー。
もしあなたは登録したが、それがブラウザを閉じ、支持拡大オフライン、
壱時間またダウンロードできますよ。

自分の歴史記録をどう見る?
登録後、記録と自分の歴史記録を調べて。

もっと写真を拡大するには?
このツールのサーバーの支出を維持するため、有料の拡大サービスを提供します。
有料のアップグレード口座後使え独立の高性能サーバ、拡大写真をより速く、より多く、より安定した

--------------

日本語おかしすぎなwww

860 :名無しさん@お腹いっぱい。 :2017/08/21(月) 15:48:43.73 ID:iKLwi2FH0.net
日本の英文サイトも英語圏の人からこんな風に見られてるのかな?

861 :名無しさん@お腹いっぱい。 :2017/08/21(月) 23:19:04.92 ID:ly/5hkxC0.net
ただの自動翻訳じゃね?

862 :名無しさん@お腹いっぱい。 :2017/08/24(木) 01:25:20.46 ID:bdSqPE2i0.net
reCAPTCHA導入以来で鯖死んでるのはじめてみた

863 :名無しさん@お腹いっぱい。 :2017/09/01(金) 00:00:02.33 ID:zzz4Gs1za.net
動画の拡大で使うにはaviutlのnnedi3一択だな
流石に遅過ぎるし最近は何かgifみたいなノイズが出てクソだし

864 :名無しさん@お腹いっぱい。 :2017/09/08(金) 13:05:18.06 ID:R3L5IwMm0.net
ノイズっていうか輪郭周りの不自然さ問題は、今の手法のままで対策するとなると、音声の処理でよく用いるオーバーサンプリング処理的な
考え方で攻めたほうが解決しやすいのではないかとも思う。
つまり、現状は縦横2倍(画像情報量で言うと4倍)に拡大をストレートに行っているけど、どうしても丸目誤差の問題が出るし目につきやすい。
(TTLモードで、画像を回転させる手法で幾分の軽減はされるが、根本的な解決手法ではない)

ならば、サンプル画像の確保が大変にはなるが、8倍オーバーサンプリングとでもいうか、内部処理的に縦横8倍(画像情報量で64倍)にすることを
前提に設計し、拡大後に縦横2倍(画像情報量で4倍)までダウンスケール、つまり縮小すれば、丸目誤差に伴うノイズというか荒らは気にならなく
なるのではないかと思う。
情報量が従来の計算に比べ16倍にはなるけれど、TTLモードを使うことを考えたら結局時間的には大差ないのではないかと思わなくはない。

ただし、縦横8倍の差をディープラーニングするためのサンプル画像がかなり大きなサイズの画像が必要になることがネックだろうと思われる。
このあたり、作者氏の手間の問題になってくるから、ユーザーがどうこう言いにくいところではあるのだが。

865 :名無しさん@お腹いっぱい。 :2017/09/08(金) 18:43:51.46 ID:WUxLR/XY0.net
>>864
TTAモードのことを言ってるんだろうけど、それとリサイズのアルゴリズムは根本的に関係ないんじゃないの
ダウンサンプリングすればいいと言うけど、それはどんな手法を使うんだい?

画像処理のコストはめちゃくちゃ下がってるし、waifu2xにしても自分で用意したデータセットで学習する手引もされてる
具体的なアイデアがあるなら試してみるといいよ

866 :名無しさん@お腹いっぱい。 :2017/09/09(土) 19:37:28.64 ID:pXK9vUQtM0909.net
アルゴリズムは難しくないので
自分で実装してみたら?

俺が試した範囲ではオーバーサンプリングして
縮小してもあんま変わらなかった

当たり前だが俺は作者じゃないよ

867 :名無しさん@お腹いっぱい。 :2017/09/17(日) 18:47:42.61 ID:lEmEP6WS0.net
waifu2x-caffe ver 1.1.8.4
https://github.com/lltcggie/waifu2x-caffe/releases/tag/1.1.8.4
cuDNN v7に対応

868 :名無しさん@お腹いっぱい。 :2017/09/17(日) 19:22:03.46 ID:SWVnmedP0.net
今回の場合cudnn-8.0-windows7-x64-v7.zip/cuda/bin/cudnn64_7.dllかな
このへん本当に分かりにくいよなあ
前提となるCUDAやGeForceドライバのバージョンもあったかもしれない

869 :名無しさん@お腹いっぱい。 :2017/09/23(土) 14:43:51.85 ID:vfPusanO0.net
CPU用はまだ? AVX2とかSSE4.2とかで1/10のスピードにならんかな←遅くてもいいからって意味で

870 :名無しさん@お腹いっぱい。 :2017/09/23(土) 15:27:18.83 ID:NRQikrBL0.net
>>869
CPUならtanakamuraさんの派生のやつが早いと思うよ

871 :名無しさん@お腹いっぱい。 :2017/09/26(火) 23:36:59.42 ID:XXsLzxjQ0.net
ハイブリッド、キタコレ

・ 低解像度画像からでも高解像度画像を生成できる「PixelNN」
http://gigazine.net/news/20170926-pixelnn/

872 :名無しさん@お腹いっぱい。 :2017/09/27(水) 07:59:58.55 ID:2lP1ylD00.net
すごい
おれの落書きを写真にしてほしい

873 :名無しさん@お腹いっぱい。 :2017/09/27(水) 08:02:54.37 ID:cwBPr8CMM.net
写真とそれを落書きにしたイラスト2000枚を学習させればええだけやで

874 :名無しさん@お腹いっぱい。 :2017/09/28(木) 00:14:50.04 ID:TlwhVgpF0.net
>>871
waifu2xの欠点を克服できたら神

875 :名無しさん@お腹いっぱい。 :2017/09/29(金) 23:10:14.54 ID:BSunbs8Y0NIKU.net
iOS版のwaifu2xなんてものが出来てた

imxieyi/waifu2x-ios: iOS Core ML implementation of waifu2x
https://github.com/imxieyi/waifu2x-ios

876 :名無しさん@お腹いっぱい。 :2017/09/30(土) 13:17:09.52 ID:scjErNqF0.net
どんだけエンコ時間かかんだよ

877 :名無しさん@お腹いっぱい。 :2017/10/01(日) 04:32:53.20 ID:Wqt3xmrb0.net
>>870
thx、更新止まってるみたいでげんなり

878 :名無しさん@お腹いっぱい。 :2017/10/03(火) 15:27:19.03 ID:3JCntEds0.net
invalid requestって何が原因?頻発するんだが

879 :sage :2017/10/03(火) 18:49:13.53 ID:1vKvOmgu0.net
>>878
reCAPTCHAの認証に失敗すると出てます。
全体の3%くらいでそんなに出ていないので
それ以上の確率で発生しているなら環境か回答に原因があると思いますがよく分かってないです。
判定には、reCAPTCHAの入力(マウスの軌道,画像問題が出たならその回答)、端末のIPアドレスが使われてます。

880 :名無しさん@お腹いっぱい。 :2017/10/03(火) 19:32:40.42 ID:SgT7tkwS0.net
>>879
なるほど。実行ボタン押せても回答が間違ってる場合があるってことかな
ここ数日で急に出てくるようになったんだよね
ちょっと注意してreCAPTCHAやってみます

881 :名無しさん@お腹いっぱい。 :2017/10/05(木) 09:21:46.76 ID:vrmE32hAa.net
前にノイズが云々言った者だがもう直ったみたいだな
前までは本当に素人が分かるレベルの汚いノイズが出てたんだ
マルチの方が未だに直ってないようなんで使ってみれば分かる

882 :名無しさん@お腹いっぱい。 :2017/10/06(金) 07:25:18.44 ID:0QWgeDO+0.net
ウェブでの処理は1年以上変更していないですよ

883 :名無しさん@お腹いっぱい。 :2017/10/10(火) 02:22:10.25 ID:PBW0sxG70.net
waifu2x-caffeで縦横幅両方指定すると横だけ指定した場合に比べてかなり時間かかるけど、
縦横幅両方指定だと単純に2の累乗倍して縮小するだけじゃない何か別の処理してるのかな

884 :名無しさん@お腹いっぱい。 :2017/10/10(火) 06:38:54.71 ID:a24uxQmA0.net
指定値のどちらかが元サイズの2倍数を超えているとか
128->256(2倍), 128->257(4倍後縮小)と境界がある

885 :名無しさん@お腹いっぱい。 :2017/10/10(火) 07:44:11.35 ID:nRQQJMre0.net
>>883
テストしたけど変わらないわ

883のケースじゃないかね

886 :名無しさん@お腹いっぱい。 :2017/10/11(水) 16:33:54.83 ID:t/Umntra0.net
色々試してみたが、(自分の場合)どうも一定以上縦長の画像を拡大してみたときに縦横幅両方指定/横だけ指定で処理時間に差が出るようだ
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う

887 :名無しさん@お腹いっぱい。 :2017/10/11(水) 19:01:00.60 ID:YWDml6V60.net
>>886
その条件でテストしたら確かに違いを確認したわ

横幅のみ指定 20秒
横幅、縦幅指定 90秒

888 :名無しさん@お腹いっぱい。 :2017/10/11(水) 21:01:30.37 ID:M5faF1lLM.net
例えば500x1000の画像を横幅800pxで拡大したときと800x1600で拡大したときとか
処理時間だけでなく結果も明らかに違う

横幅のみは 1.6倍 プロファイル使って1回
両方指定は 2.0倍 4分割から縮小

と違う経路になってるかと。 886の時間差的にそれっぽい

889 :名無しさん@お腹いっぱい。 :2017/10/11(水) 22:14:53.14 ID:YWDml6V60.net
>>888
1.6倍かどうかは関係ないかも
900x1800でも一緒だった

890 :名無しさん@お腹いっぱい。 :2017/10/12(木) 02:42:07.67 ID:klsngnEYM.net
1.6倍の意味を理解してないと思われ

891 :名無しさん@お腹いっぱい。 :2017/10/13(金) 14:25:26.13 ID:H9ptKdhPM.net
>>871
お試し環境はないの?

892 :名無しさん@お腹いっぱい。 :2017/10/20(金) 01:08:34.86 ID:rsh3kdsE0.net
フォトショにもAIアップスケールだって

https://pc.watch.impress.co.jp/docs/news/1087038.html
>人工知能を活かした画像拡大機能で、ディテールやテクスチャを保持しつつ画像サイズを変更でき、劣化が抑えられるという。

893 :名無しさん@お腹いっぱい。 :2017/10/20(金) 18:35:55.04 ID:w9nfF7IqM.net
>>892
リンク先の画像だと、画像サイズが小さくてわかりにくいが、確かに髪の表現や顔の血管やシワが強調されてはいる。
まだプレビュー扱いのようではあるが。
しかし、Photoshop高いからな…

894 :名無しさん@お腹いっぱい。 :2017/10/20(金) 20:01:04.46 ID:KV4gR3xtM.net
Lightroom付いて月1000円は安いと思うけど

895 :名無しさん@お腹いっぱい。 :2017/10/21(土) 11:55:13.81 ID:ezIgs+TB0.net
・・・数年でいくらになるかと言うと

"(((( ´,,_ゝ`))))

896 :名無しさん@お腹いっぱい。 :2017/10/21(土) 15:26:44.82 ID:d4VYBQVI0.net
文字などの拡大結果がwaifu2xっぽいらしいですね
(CNN系はどれも似たような特徴がでる)

897 :名無しさん@お腹いっぱい。 :2017/10/21(土) 20:38:14.84 ID:lX5ko0Pe0.net
>>895
買い切り時代の値段で8年くらい使える訳だけど
確かにまともに使わない人には高いか

898 :名無しさん@お腹いっぱい。 :2017/10/22(日) 00:33:19.63 ID:PfWLRsqV0.net
休みの日のお絵かき用途に毎月1000円も出したくないな

899 :名無しさん@お腹いっぱい。 :2017/10/22(日) 01:58:31.92 ID:/njJqV5y0.net
Photoshopでお絵かきなんてするやついるのか

900 :名無しさん@お腹いっぱい。 :2017/10/26(木) 23:06:10.33 ID:DefK6fF40.net
月180万……
いまだに運営費の問題は健在か

901 :名無しさん@お腹いっぱい。 :2017/11/01(水) 16:47:19.17 ID:gUHZ+jN20.net
・ガビガビの低解像度写真を高解像度な写真に変換できる「EnhanceNet-PAT」が登場
https://gigazine.net/news/20171101-algorithm-low-resolution-images/

この研究の前は、最先端の超解像技術でさえ、画像の中にぼやけた部分やざらざらした部分を持っていました。
その理由は、『高精細な画像になるようにオリジナル写真を再構成させる』などのニューラルネットワークでは実現不可能なことを、ニューラルネットワークに要求していたからです。
そのため、超解像技術で作成された画像は、一部がぼやけていたそうです。
そこで、我々はニューラルネットワークにより高精細なテクスチャーを作成してもらう、という異なるアプローチを取りました。
この手法ではニューラルネットワークが画像全体を見て、領域を検出し、意味情報を使ってより高精細なテクスチャーを作成し、高解像度の画像を作成します」

能書きはいいから早く一般人が利用できるようにしてくれ!

902 :名無しさん@お腹いっぱい。 :2017/11/01(水) 16:51:02.16 ID:ywNULZCUd.net
こんな事が出来るようになったのに、何でデインターレースは上手く出来ないのか

903 :名無しさん@お腹いっぱい。 :2017/11/01(水) 17:40:08.94 ID:Rrmmh94R0.net
デインターレースはやりたがる人が少ないんじゃないか
あとリアルタイム動作を考えると難しいとかあるかも

904 :名無しさん@お腹いっぱい。 :2017/11/01(水) 23:54:09.20 ID:37DME+fd0.net
>>901
これ、デジタル放送のブロックノイズ対策やモザイク除去にも使えそうだな

905 :名無しさん@お腹いっぱい。 :2017/11/02(木) 00:44:20.56 ID:XY5MStcz0.net
凄いんだけど、失敗例だと化物みたいになっちゃうな

http://i.imgur.com/PXVKiei.png

906 :名無しさん@お腹いっぱい。 :2017/11/02(木) 03:30:36.42 ID:AXeKiQ9g0.net
ゾンビで学習しちゃったみたいな?

907 :名無しさん@お腹いっぱい。 :2017/11/02(木) 16:48:27.48 ID:fpvIbUNIM.net
奥の人と融合して別の学習済みの何かとザ・フライしたな

908 :名無しさん@お腹いっぱい。 :2017/11/02(木) 21:01:37.47 ID:AW27ksif0.net
ハゲの再現度は高いな

909 :名無しさん@お腹いっぱい。 :2017/11/02(木) 21:19:44.34 ID:I7cvRq4a0.net
ゾンビ化以外は、従来版よりいいね。
従来版の輪郭が溶ける問題は発生していないから、ゾンビ程度ならペイント程度でも局所的に簡単に手直しできそうだし。
(輪郭が溶けるほうは、ペイントで簡単に手直しとはいかないし)

910 :名無しさん@お腹いっぱい。 :2017/11/03(金) 11:01:23.26 ID:GBIyNV7aa.net
>>901
これ試せるところないの?

911 :名無しさん@お腹いっぱい。 :2017/11/03(金) 11:05:59.35 ID:3JWHfXbG0.net
無いよ

912 :名無しさん@お腹いっぱい。 :2017/11/03(金) 12:02:31.66 ID:LebgZYe6M.net
金積めば研究データ使わせてくれるかも

913 :名無しさん@お腹いっぱい。 :2017/11/03(金) 15:37:03.81 ID:H76ey3tB0.net
有料でいいからソフト化してくれ

914 :名無しさん@お腹いっぱい。 :2017/11/03(金) 18:36:36.38 ID:VfeW0NTrM.net
同一画像については変換パラメータ変更での再処理は○回まで無料とかは欲しいが
利用量(枚数、サイズ)に応じた従量制課金かプリペイド制のサービスになると利用しなくなる法則

オンライン変換サービスしてる人も課金モデルでその部分指摘してたな

915 :名無しさん@お腹いっぱい。 :2017/11/03(金) 21:34:13.82 ID:NDN+SZgNM.net
テクスチャを学習するってことは、本格的に学習すると
データの容量が凄いことになるのかな

916 :名無しさん@お腹いっぱい。 :2017/11/03(金) 21:56:43.26 ID:3JWHfXbG0.net
学習するサンプルも多いだろう

917 :名無しさん@お腹いっぱい。 :2017/11/03(金) 23:10:14.26 ID:VfeW0NTrM.net
画像系ディープラーニングの学習データの量はニューラルネットワークで定義されてる係数やフィルタの数で固定される
学習サンプルが多いとデータが増えるわけではなく、固定サイズの学習データの質がサンプルの内容に応じて最適化されていくだけ

918 :名無しさん@お腹いっぱい。 :2017/11/06(月) 03:18:01.70 ID:FH+Fgmgp0.net
ここのサイト結構性能いいかも
ちょっと誰か試して

Let's Enhance – free online image upscale and enhancement with neural networks
https://letsenhance.io/

原画像
http://i.imgur.com/mxp9Q2J.png
http://i.imgur.com/TGaT3oX.png

waifu2x
http://i.imgur.com/s4jE2hO.png
http://i.imgur.com/UZsH9uj.png

Let’s Enhance
http://i.imgur.com/fu6PEWJ.png
http://i.imgur.com/SVpsLwH.png

紹介記事
This Website Uses AI to Enhance Low-Res Photos, CSI-Style
https://petapixel.com/2017/10/31/website-uses-ai-enhance-photo-csi-style/

919 :名無しさん@お腹いっぱい。 :2017/11/06(月) 05:34:47.22 ID:FH+Fgmgp0.net
>>918のサイトのやつSRGANを参考に作っているらしい
ボケずに拡大出来るけど模樣なんかが元の画像と違った感じになる

原画像
https://i.imgur.com/Xs8E2hZ.png
waifu2x
https://i.imgur.com/4D0rzHC.png
Let’s Enhance
https://i.imgur.com/2elNRSJ.png

SRGANに関してはここの説明が分かりやすかった
https://elix-tech.github.io/ja/2017/02/06/gan.html#papers

920 :名無しさん@お腹いっぱい。 :2017/11/06(月) 13:47:49.83 ID:TDgC8d4y0.net
元の画像から変わりすぎ

921 :名無しさん@お腹いっぱい。 :2017/11/06(月) 20:17:39.89 ID:ir0xJWe00.net
>>920
ちょっと画像の例が悪かったかもしれない
元の1/4に縮小して拡大してあるから細部の情報なんて全く残ってないのよ

922 :名無しさん@お腹いっぱい。 :2017/11/06(月) 21:19:25.20 ID:TDgC8d4y0.net
>>921
EnhanceNet-PATは、そこまで酷くない。
今更出来の悪いものは必要ない。

923 :名無しさん@お腹いっぱい。 :2017/11/06(月) 21:42:36.91 ID:Q6z17jgC0.net
予想外の結果になりそうで面白い

924 :917 :2017/11/09(木) 08:10:48.38 ID:ejxgnOxl0.net
紹介の仕方をミスった感が強いけど>>918のサイトは写真の種類によってはそれなりに有用だと思う。
waifu2x UpPhoto x4 ノイズ除去無しとの比較。

http://upup.bz/j/my27960IRCYtBJQmxSGzyUg.jpg
http://upup.bz/j/my27961gChYtd_bPU81wFWU.png
http://upup.bz/j/my27962YLrYtQJyJmWv6uSE.png

http://upup.bz/j/my27966jlmYtbo37ME0ayCU.jpg
http://upup.bz/j/my27967AwAYtbo37ME0ayCU.png
http://upup.bz/j/my27968lFCYtbo37ME0ayCU.png

925 :名無しさん@お腹いっぱい。 :2017/11/10(金) 11:40:25.71 ID:uNZAv5Jo0.net
>>924
どれがどれかくらい書いてアップしろよ、常考・・・
上から
・原画
・UpPhoto x4
・waifu2x(ノイズ除去無し)
だな。

■草刈正雄画像
一見すると確かにUpPhoto x4の仕上がりは良好に見える。
が、ブルーのクッションのうち右側のほうに着目すると、少しコントラスト比が変動してしまい
眠たくなってしまっている。
原画ではもう少しだけコントラスト感がある。

■女性画像
草刈正雄画像と同様に、黒い服?のコントラスト感が若干弱まり眠たくなってしまっている。

この程度の画像でコントラスト変動が出る(全体にではなく一部にというのが問題)のは、学習に用いている画像の枚数が少なすぎるのではないか?

前の>>917でもそうだけど、学習量が少なすぎるから、少ない学習データの中で一番近そうなのはこれしかないんです状態に感じられて仕方がない。
少なくとも今の学習量の8倍は学習させたほうがいい。

あと、一度拡大した画像自体を縮小して、元画像との変化が出ているところを再度調整しなおすような仕組み(フィードバック補償)があってもよいのかもしれない。
ゾンビ化の画像とかもそうだが、フィードバックしていればあのまま出てくることはないはず。
一度きりの結果に満足するなかれ。

926 :名無しさん@お腹いっぱい。 :2017/11/10(金) 12:57:12.20 ID:1rKnYbnJ0.net
>>925
ごめん、どれがどれか書き忘れた。
上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。

あとレビューありがとう。
自分は画像処理の専門家じゃないしそんなに目も良くないので意見を言ってくれると助かります。
学習量については一週間毎にモデルを更新していく予定とのことなのでそれで改善されるかも。

927 :名無しさん@お腹いっぱい。 :2017/11/10(金) 13:18:06.57 ID:uNZAv5Jo0.net
>>926
>上から原画像、waifu2x UpPhoto x4 ノイズ除去無し、Let's Enhanceの順です。
これマジ?
だとしたらLet's Enhanceが一番ぼけてることになるのだが。
輪郭線などの具合から、てっきり3番目がwaifu2xかと思っていたのだが。

928 :名無しさん@お腹いっぱい。 :2017/11/10(金) 14:43:20.30 ID:mTpzd+uCD.net
>>918
ここの最新エントリにLet’s Enhanceの使い方から処理の違いとか詳しいのある
digibibo.com

929 :名無しさん@お腹いっぱい。 :2017/11/10(金) 14:56:28.62 ID:oFJM5zAg0.net
>>927
Let's Enhanceぼかしたままのところとディテールを加えるところのメリハリがあるね
髪の毛や肌は明らかにLet's Enhanceの方が情報量が多い(存在しない情報を付加している)
メガネのエッジなんかもLet's Enhanceの方がくっきりしてる

930 :名無しさん@お腹いっぱい。 :2017/11/10(金) 15:03:23.18 ID:1rKnYbnJ0.net
>>928
さすがに記事書き慣れてる人は紹介が上手いねw
自分だけではしゃいで魅力を説明できない自分とは大違いだわ

931 :名無しさん@お腹いっぱい。 :2017/11/10(金) 16:46:38.70 ID:uNZAv5Jo0.net
なぜかリンク貼るとエラーになるのでリンク先で画像見つけてほしいが

■JPEGノイズ除去のbefore/after(左右で比較できる画像)
tmpimg1711101329n220171110135958928.jpg
やはりコントラストが変動しているな。

■拡大のbefore/after(鉄塔の画像)
before
tmpimg1711101340n120171110140051020.jpg

after
tmpimg1711101341n120171110140114527.jpg
拡大後の鉄塔の赤色や右側の塔の上部のオレンジ、クレーンの青、背景等をみると、同様に変動している。
輪郭周りの処理はwaifu2xよりうまいけど、まだまだ問題点が多い。

932 :名無しさん@お腹いっぱい。 :2017/11/10(金) 16:51:55.59 ID:uNZAv5Jo0.net
追記

ただし、ノイズ除去の精度はかなり高い。
これ、デジタル放送のノイズ除去や、調整次第ではVHSの3倍モードのノイズに効用がありそうな気はする。

933 :名無しさん@お腹いっぱい。 :2017/11/10(金) 17:25:45.25 ID:C0fr3WYka.net
確かに非常に良くなる画像とディテールが崩れる画像がある印象。
だけどまさに魔法と呼びたくなるほど凄い処理がされる画像もあったよ。

934 :名無しさん@お腹いっぱい。 :2017/11/10(金) 19:57:18.90 ID:fiLLUmkY0.net
イラスト系の比較画像がほしいな
実写はもともとwaifu2x苦手なの分かってるし

935 :名無しさん@お腹いっぱい。 :2017/11/11(土) 11:12:56.96 ID:K8wJXMCa01111.net
>>934
今は無料で試せるみたいだから自分で試してみたら。

閑話休題。
Let’s Enhance、これもGPUの力がないと演算に時間がかかるタイプなのかな?
来年早々にIntel CPU+Radeon GPUなCPUをIntelが出すみたいだし、AMD系含めオフライン環境でも実行できるようになればいいのだが。
動画を連番画像で書き出してアップさせようとするとすさまじい枚数になるので、時間はかかってもいいがオフラインで実行できないと死ぬ。

936 :名無しさん@お腹いっぱい。 :2017/11/12(日) 00:45:44.32 ID:uaMsUrr60.net
>>934
Let's EnhanceのTwitterアカウントの人がWe are trained on photos, not anime ) Waifu2x has a clear leadership here )って言ってるからあんまり向いてないんじゃないかな
Google翻訳 私たちはアニメではなく写真で訓練されています)Waifu2xはここで明確なリーダーシップを持っています)

937 :名無しさん@お腹いっぱい。 :2017/11/12(日) 11:50:55.45 ID:uaMsUrr60.net
>>584でGANはPSNRが下がる懸念があると言われていたので気になって調べてみました。
一応bicubicと同程度はあるようです。

BSD100 x4 Y-PSNR
25.976 bicubic
26.085 Let’s Enhance
27.094 waifu2x Photo
27.196 waifu2x UpPhoto

ベンチマークに使った画像もUPしておきます。
https://www.dropbox.com/sh/i5b2old7vqgtvyv/AADb8UIqZel9LTDaFuwDdLwda?dl=0

938 :名無しさん@お腹いっぱい。 :2017/11/12(日) 13:41:34.72 ID:dNH6kcXn0.net
>>937
PSNRで20台半ばか。
ただ、そもそも超解像のような処理の場合、PSNRが評価指標として適切かという問題はある。
以下を読むと参考になるかと。

・MSE/PSNR vs SSIM の比較画像紹介
https://qiita.com/yoya/items/510043d836c9f2f0fe2f

SSIMで比較してみるといいのかもしれない。

939 :名無しさん@お腹いっぱい。 :2017/11/12(日) 13:47:37.01 ID:dNH6kcXn0.net
追記
Let’s Enhanceは、コントラストが変動する問題が解決すれば、基本的には今の状態でも使えなくはないのだが(バケる問題は学習量を増やせば落ち着くかと思われるので)、なぜにあんなにコントラスト変動が起こるのかが解せないんだよね。

940 :名無しさん@お腹いっぱい。 :2017/11/12(日) 13:59:45.49 ID:dNH6kcXn0.net
再度追記
>>937の画像を見ていると、苦手な画像が少しわかってきた。
小さな三角形のような形が含まれる画像が変形しやすいように見える。
ヒョウ柄とか動物の目のまわりとか、そういう画像をたくさん学習させるとかなり改善されるような気がする。

941 :名無しさん@お腹いっぱい。 :2017/11/13(月) 11:19:04.01 ID:TPyOarub0.net
Let’s Enhanceについてさらに評価と要望

・アンチJPEG
JPEG画像などに見られるブロックノイズを解像感を落とさずに除去
→この考え方を応用して、スキャナで取り込んだ画像に発生するモアレを、解像感を落とさずにモアレだけ除去できるような
「アンチモアレ」機能に発展させてもらうことはできないのだろうか?
現状、モアレ除去を試みると、どうしても解像感が犠牲になるのと、素材ごとに手動で最適な設定値を見出さなければならない状況になるが、
自動的に最適な状態で除去してくれたら、印刷物の取り込みが大幅に楽になる。
ついでに、オプションで印刷物取り込み画像はコントラストが眠くなりがちです、取り込み後にガンマをいじくったりして補正しなければならないケースが多いので、
印刷物のコントラスト補正最適化モードも自動的に実行されるオプションがあればなおよいのだけど。

・ボーリング
省略

・マジック
アンチJPEGを実行後に拡大しているようなのだが、アンチJPEGをオフにして拡大だけするモードをつけられないのだろうか?
サンプル画像を見ていると、アンチJPEGによる副作用なのか、妙にノッペリして見える箇所が見受けられるので。

942 :名無しさん@お腹いっぱい。 :2017/11/13(月) 14:30:14.38 ID:TPyOarub0.net
waifu2xとの比較画像含め作成してみました。
https://www.axfc.net/u/3862416
※700MB程度zipファイルです。時間のある時にお試しください。
今夜2時までの公開です。
(著作権があるので、テスト目的のみで使用してください)

※元画像がAdobe-RGBの画像については、ICCプロファイルの引継ぎがされていないため、正しい色味で表示されませんが、これはwaifu2xの初期と同じく、プロファイルの編集をすれば正しく表示されます。

なお、変換した画像について
・いつもの画像
waifu2xのテストでよく使用していた画像です。
pngファイルにつき、anti-jpegは出力されていません。
ノイズ除去を適用したくなければ、pngファイルでアップするとよいのかもしれないです。
waifu2xとの比較ですが、boolin(2次元向き)よりmagic(実写向き)のほうが精細感や透明感があり好ましいように思います。
ただし、川の右側の欄干の処理がもう一歩な感じはするけど、縦横4倍!でこの状態はすごい。
(試す前まで、waifuと同じ縦横2倍だと思ってました・・・)
ただし、川の左側の石の護岸壁が元画像とコントラストが異なるのは気になるところ。

他の画像はjpgですので、anti-jpegあり。
参考程度にどうぞ。
(ノイズ除去なしになるか試そうと、jpg⇒pngした画像をアップしようとしたら枚数上限に達したので、また次回試してみます)

943 :名無しさん@お腹いっぱい。 :2017/11/13(月) 23:14:41.84 ID:SEq7VEq/0.net
重すぎてダウンロード出来ない

944 :名無しさん@お腹いっぱい。 :2017/11/15(水) 12:26:10.44 ID:+/WZXxMd0.net
>>943
また時間のあるときにでもアップしてみます。

なお、開発元からメールが届き、やはりpngでアップした場合はJPEGのノイズ除去はしないで拡大だけするようです。
その状況を確認しようと再度アップを試みたところ、前回のアップからすでに1日以上経過しているにもかかわらず、
上限枚数に達したと表示されアップできない状態。
どうも不安定なようす。

945 :名無しさん@お腹いっぱい。 :2017/11/21(火) 11:15:49.96 ID:GGDYSobV0.net
今までグラボに負荷がかからないように、ゲームやるときでもGPU LOADをなるべく30%以内に抑えてきたんだが、
waifu2x-caffeだと常時100%使うんだな   (((( ;゚Д゚)))ガクガクブルブル
まあ、すぐ慣れるか・・・

946 :名無しさん@お腹いっぱい。 :2017/11/21(火) 11:49:30.65 ID:ggCP7JpA0.net
俺100%にならないぞ
性能が低いからか?

947 :名無しさん@お腹いっぱい。 :2017/11/22(水) 10:59:57.46 ID:MpzyPo1w0.net
ディープラーニングのすごさを体験! 人工知能で画像を加工できるツール5選
http://news.mynavi.jp/articles/2017/11/22/ai/

948 :名無しさん@お腹いっぱい。 :2017/11/27(月) 16:45:35.69 ID:k5rPv5PA0.net
Let's Enhance、月払いと年払いのサブスクリプションプランを作ったみたいだね。
無料版は制限きつすぎ。

949 :名無しさん@お腹いっぱい。 :2017/11/27(月) 18:31:18.18 ID:l2QRCD030.net
waifu2xも運営費の捻出に苦労している中ビジネスモデルが成功するのか興味がある

950 :名無しさん@お腹いっぱい。 :2017/11/27(月) 20:18:13.21 ID:0yxjOZvPd.net
そもそも一般的な使い道が思い付かない
防犯カメラ画像の解析とか?

951 :名無しさん@お腹いっぱい。 :2017/11/27(月) 20:24:39.62 ID:25fgXHbid.net
AIが解析した監視カメラ映像は法的な証拠能力があるのだろうか

952 :名無しさん@お腹いっぱい。 :2017/11/28(火) 23:44:40.07 ID:X/pTZJk50.net
>>948
オフラインで使えるようになった?
GPU使って大量にやりたい

953 :名無しさん@お腹いっぱい。 :2017/11/29(水) 09:11:55.09 ID:uEaZLV9C0.net
どこをどう読んだらオフラインで使えるようになったように読めるのか…

954 :名無しさん@お腹いっぱい。 :2017/11/29(水) 14:08:33.74 ID:LjzMHann0NIKU.net
また繋がらない
モチベが無くなる前に復旧してくれー

955 :名無しさん@お腹いっぱい。 :2017/12/01(金) 00:27:17.53 ID:JRCbfq5qx.net
これUPした画像はサーバにずっと保存されるの?それとも一定期間で削除?

956 :名無しさん@お腹いっぱい。 :2017/12/01(金) 02:29:52.78 ID:YkGnoxC70.net
速攻削除じゃないの?保存する意味あるかな?

957 :名無しさん@お腹いっぱい。 :2017/12/01(金) 10:26:12.87 ID:rk1mw3Ut0.net
ぐへへ

958 :名無しさん@お腹いっぱい。 :2017/12/08(金) 19:58:14.25 ID:1692mnP40.net
Tensor演算性能110TFLOPSなTitan Vが出たけど、waifu2xどれくらい速くなるんけ?

959 :名無しさん@お腹いっぱい。 :2017/12/13(水) 05:40:07.05 ID:mHLtONb60.net
waifu2x、iOSのSafariからやるとGoogle reCaptureクリアしてもInvalid Requestが出てしまうのですがどうしたらいいですか?

960 :名無しさん@お腹いっぱい。 :2017/12/13(水) 19:36:00.62 ID:azBr58UQ0.net
>Let’s Enhanceは、コントラストが変動する問題が解決すれば
GANの原理的に元の数値自体を見てないから形状とか以外は
ごっつり変わる可能性があるんだよね

961 :名無しさん@お腹いっぱい。 :2017/12/20(水) 10:42:06.75 ID:o8jFfiBn0.net
>>960
それじゃ話にならんね

962 :名無しさん@お腹いっぱい。 :2017/12/20(水) 11:03:38.82 ID:Nd23KCWC0.net
PSNRを高くしていく方向性の超解像は原画像とかけ離れた結果にはなりにくいが溶けたりぼやけたりする
PSNRを無視して自然に見える画像を作り出そうとする方向性の超解像はくっきりしているけど原画像とかけ離れた結果になるリスクが有る

ジレンマみたいな感じで難しいね
今後はどっちの超解像が主流になるのかな

963 :名無しさん@お腹いっぱい。 :2017/12/22(金) 12:59:10.97 ID:45YP9s6P0.net
誰でも悪夢のようなムービーが作れるようになるツール「Bind」が公開
https://gigazine.net/news/20171221-bind/

964 :名無しさん@お腹いっぱい。 :2017/12/22(金) 14:00:11.61 ID:WX6qzd4e0.net
>>962
PSNR無視型=Let's Enhance
で輝度信号(Y)だけ処理して
PSNR重視型=waifu2x(RGB処理)で処理した画像の輝度信号(Y)だけ差し替え
とか無理か

965 :名無しさん@お腹いっぱい。 :2017/12/24(日) 01:09:29.89 ID:OnQYpWTt0EVE.net
コントラストが変わらなくて
元画像を参照するGANを思いついたので
近いうち実装する

写真向け手法

966 :松平片栗虎 :2017/12/25(月) 13:29:33.78 ID:l6esTw+c0XMAS.net
>>965
waifu2x-markUか?
頑張れ、にぃちゃん

967 :697 :2018/01/01(月) 08:05:08.81 ID:PGln9fAz0.net
>>701
かなり遅レスになりますがD&Dモード的なものを実装しました

968 :名無しさん@お腹いっぱい。 :2018/01/01(月) 10:47:23.44 ID:Hh7i7mWtM.net
アンチエイリアス、ジャギ取り用の深層学習のソフトってないだろうか

学習させるとしたら、ジャギっている大きな画像を大量に用意し
ニアレストネイバーで縮小したジャギっている画像と
適当なフィルタで縮小してスムージングされた画像を学習させる形になるのかな

969 :名無しさん@お腹いっぱい。 :2018/01/01(月) 15:11:31.18 ID:jOvnUDDx0.net
waifu2xって元画像がジャギって
ゆがんでても補正してくれるんだけど
ソース読むと縮小フィルタを
ランダムに選択して学習してるので
ジャギがあってもなくてもうまくいく
設計なんだよね

964の100パーセントGANによる
超解像だけど、画質的にはwaifu2x
には遙かに及ばないけど
劣化画像と理想画像が全く別の
画像でもいいので、大量のスマホの写真と
一眼レフの画像があればスマホの画像を
一眼レフに変換できる

970 :名無しさん@お腹いっぱい。 :2018/01/01(月) 19:31:50.30 ID:MEklgyMk0.net
>>968
学習が可能だとしたら、用意するのはジャギってない画像だろ
そこからニアレストネイバーで縮小&拡大して同サイズのジャギってる画像を生成する
正解データの質は重要と思われ

971 :名無しさん@お腹いっぱい。 :2018/01/01(月) 20:24:27.50 ID:Hh7i7mWtM.net
>>970
言葉足らずで申し訳ないですが、こちらとしては処理対象のジャギーっている画像とは
よくある斜めの色の境界に中間色がなく1ドットのギザギザが見える状態を想定しています

ジャギってない画像=色の境界付近に中間色がある画像をニアレストネイバーで縮小すると
縮小画像の境界線上で元画像の境界付近の中間色を抽出してしまう箇所が出て来ますし
それを拡大すると、ジャギっている部分が1ドットではなく拡大倍ドットとなりまので
想定のジャギー画像とは異なるものが出力されます

ニアレストネイバーで縮小⇒拡大した画像を元の画像に向けるというのは
ニアレストネイバーの性質上、実質的にwaifu2xの拡大に近いものと思われますが
現状のwaifu2xには上記で想定しているジャギーはあまり取れません

彩色等の関係で最終的に必要な物より高解像度かつアンチエイリアスが掛かってない画像を用意して、
その後に縮小することで中間色を生成させジャギってない状態にするというのは良くある手法ですので
その辺の効果により、前述の方法で学習できるのではないかなと考えていました

972 :名無しさん@お腹いっぱい。 :2018/01/01(月) 20:29:13.01 ID:8BMS1Da70.net
ところで次スレどうする?
荒らしが立てたスレ再利用する?

あ、もし新しくスレ立てるんなら
>>2のアルファチャンネルの情報は古いから消しといてね。

973 :名無しさん@お腹いっぱい。 :2018/01/01(月) 21:19:51.47 ID:xM62e1bZ0.net
>>971
画像用意が大変だから最初はベクター画像を教師とするのが良いかとジャギーは後処理で作れるし
フォントレンダラーで文字ベースでやれば適度な曲線や払いの先鋭化が学習できるかも

974 :名無しさん@お腹いっぱい。 :2018/01/01(月) 22:08:58.84 ID:Hh7i7mWtM.net
>>973
確かにそうですね
既存のソフトがないなら、その方向性で考えてみます

975 :名無しさん@お腹いっぱい。 :2018/01/01(月) 22:20:48.47 ID:lYo0ZpOi0.net
>>972
本来的には新スレを立てるべきだが、この板、古いスレが残ったままになるからいつまでも鬱陶しい状況が続くのがなんとも…
しかもスレタイの数字をわざわざ全角にしてるとか頭悪すぎて嫌になるのだが、再利用してさっさと消化したほうがいいのかもと思わなくもない

976 :名無しさん@お腹いっぱい。 :2018/01/05(金) 12:51:26.34 ID:nBhogx94a.net
ところで、>>965の件は、もう実装済みなんだろうか?

977 :名無しさん@お腹いっぱい。 :2018/01/06(土) 10:48:48.97 ID:0S9DEI+l0.net
そもそも実装したとしても一般人が気軽に試せる形になるのだろうか?

978 :名無しさん@お腹いっぱい。 :2018/01/06(土) 19:51:14.90 ID:OealWOcAr.net
>975
年末に実装して実験中
とりあえずwaifu2xの画質は絶対にぬけないのは理屈上
わかってるので

画質的にはlanczosよりまし程度
写真の場合はいけてるんじゃないかと
思うが学習用写真が集まってない

カメラ固有の最適化が可能

979 :名無しさん@お腹いっぱい。 :2018/01/07(日) 12:55:19.05 ID:qq+ZqyR5M.net

>>965ってwaifu2xの話じゃないの?

980 :名無しさん@お腹いっぱい。 :2018/01/07(日) 13:45:53.90 ID:dBE9S5Xpr.net
>978
ちがうよ
深層学習の超解像のアルゴリズムの
開発は最近は割とだれでもできる

981 :名無しさん@お腹いっぱい。 :2018/01/08(月) 15:39:19.53 ID:6xLoPyaT0.net
・AMD、HBM2搭載のモバイルGPU「Radeon Vega Mobile」
「NVIDIAで言えばcuDNNに対応するライブラリとしてオープンソースのMIOpenを利用し、NVIDIAで言えばCUDAに相当するプログラミング言語としてはオープンソースのHIPを活用しているの。
AMDは、CUDAのコードをHIPに移植するツールとして「HIPfy」という自動変換ツールを用意しており、それを利用してCUDAベースのアプリケーションを、
HIPに変換してRadeon Instinct上で機械学習/深層学習の学習や推論を行なうことができるようになっている。」
期待していいのか?

982 :名無しさん@お腹いっぱい。 :2018/01/08(月) 16:53:16.29 ID:XECcA2bg0.net
つまり、CUDAで出来る事をRadeon上でも出来る様になるの?

983 :名無しさん@お腹いっぱい。 :2018/01/08(月) 23:48:52.12 ID:XfcA6Mys0.net
>>967
ホンマに実装してくれたんか!有難う!!

984 :名無しさん@お腹いっぱい。 :2018/01/10(水) 11:36:27.73 ID:PiW5a8mQ0.net
もう本家は改良とかしないのかね?

985 :名無しさん@お腹いっぱい。 :2018/01/11(木) 17:43:53.14 ID:Er8Gq8eDM.net
動画版waifu2x がどうとか言ってたけど今はビットコイン取引BOTを改良して必要資金貯めてるとか

986 :名無しさん@お腹いっぱい。 :2018/01/11(木) 19:01:21.32 ID:2J+WZHTPM.net
GT1030でもcuDNNで変換できるんだな
今までCPUで数分かかってた変換がほんの数秒で終わって感動した

987 :名無しさん@お腹いっぱい。 :2018/01/11(木) 19:27:01.77 ID:k859fDIrd.net
>>986
そりゃそうだ
VRAMありゃ分割数増やせる

988 :名無しさん@お腹いっぱい。 :2018/01/12(金) 01:13:13.08 ID:DyRHfmzZ0.net
1030はNVENC削られてるうえにcompute capabilityのリストからもハブられてるよね……
cudaだけは使えるからこのツール使ううえでは困らんけど

989 :名無しさん@お腹いっぱい。 :2018/01/13(土) 02:27:32.81 ID:hh+HLA6dM.net
1050Ti でぶん回してるけどパラメータ上げてもGPU使用率50%にも届かないから全く問題なさそう

990 :名無しさん@お腹いっぱい。 :2018/01/14(日) 14:03:58.75 ID:ifFduiGd0.net
原因はわからないけどwaifu2xcafeで拡大すると変色する画像がある
皆はこういうの無いの?色が反転したように変わる

991 :名無しさん@お腹いっぱい。 :2018/01/14(日) 16:10:24.22 ID:r3v4tsYY0.net
画像ファイルが CMYK 、ICCプロファイル付きだったりすると結構変わる
でも、反転というほどまでは行かない気がするので外してるかな

992 :名無しさん@お腹いっぱい。 :2018/01/14(日) 16:59:42.78 ID:zlhxjl+z0.net
ICCプロファイルの種類によっては結構変わるみたいね
例えばこのサイトの画像なんかは激しく変色する

Is your system ICC Version 4 ready?
http://www.color.org/version4html.xalter

現状だとweb版しかICCプロファイルに対応してないからweb版使うといい

993 :名無しさん@お腹いっぱい。 :2018/01/14(日) 18:30:09.46 ID:oJDLZTLRM.net
ICCプロファイルが原因ならば、前スレに書いた修正手順を試せばいい

994 :名無しさん@お腹いっぱい。 :2018/01/16(火) 10:51:24.87 ID:oDmj97zFM.net
次スレどうするの?

995 :名無しさん@お腹いっぱい。 :2018/01/16(火) 17:41:26.41 ID:Up0GJ+WT0.net
2年前に後出重複で立ってかっそ過疎なのにまだ残ってるのがまだあるけどそっち使うの?
でもなんかお古すぎてアレだな・・とは思う人も居るのかしらかしら

996 :名無しさん@お腹いっぱい。 :2018/01/16(火) 19:40:03.11 ID:oDmj97zFM.net
>>995
>>975

997 :名無しさん@お腹いっぱい。 :2018/01/17(水) 09:44:45.02 ID:RPwmPYrq0.net
荒らしがくるようならワッチョイで建ててな

998 :名無しさん@お腹いっぱい。 :2018/01/17(水) 17:04:31.09 ID:WtaDae6Y0.net
過疎ってるからワッチョイもあまり意味ないけどな

999 :名無しさん@お腹いっぱい。 :2018/01/17(水) 17:30:20.62 ID:enIPH0J50.net
ワッチョイ有りの方がいいと思う 念のため

1000 :名無しさん@お腹いっぱい。 :2018/01/24(水) 00:36:37.13 ID:/NC95LKA0.net
caffe作者さんへ。caffeってOpenCL(radeon)に対応予定はないの?
VEGA搭載のRyzen 5 2400Gを購入したいけどソレだけが二の足を踏む理由。
RYZEN G買ってWaifuの為だけにGeForce乗っけるのもなぁーチラチラッ
対応をもう一度検討してみて下さい。

converter-cppやcl-waifu2xも更新2年以上無いし・・・

1001 :名無しさん@お腹いっぱい。 :2018/01/24(水) 12:13:35.09 ID:L/CzsuW60.net
caffe作者さんへ。OpenCLなんかには対応する必要ないよ。

1002 :2ch.net投稿限界:Over 1000 Thread
2ch.netからのレス数が1000に到達しました。

総レス数 1002
308 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★