2ちゃんねる スマホ用 ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【PC】M1 Mac、「TensorFlow」の新Mac版でのトレーニングが従来の7倍速 [田杉山脈★]

1 :田杉山脈 ★:2020/11/19(木) 22:28:52.89 ID:CAP_USER.net
米Appleは11月18日(現地時間)、Macに最適化した「TensorFlow 2.4」のmacOS向けフォークのプレリリース版をGitHubで公開したと発表した。

 TensorFlowは米Googleが2015年にオープンソース(Apache License 2.0)で公開した機械学習プラットフォーム。ツール、ライブラリ、コミュニティリソースを備え、Linux、Windows、macOS、Android、iOSをサポートする。

 これまでのMac版TensorFlowは、MacでのトレーニングでCPUのみを使っていたが、新バージョンは「ML Compute」を活用することで、CPUだけでなく、GPUも最大限に活用する。これはIntel Macだけでなく、M1搭載の最新モデルでも可能だ。

 例えば、M1搭載の13インチMacBook Proでのトレーニングは、ベンチマークで従来の最大7倍高速という結果だった。

ML ComputeをTensorFlowおよびそのアドオンのバックエンドとして使うために、既存のスクリプトを変更する必要はない。新バージョンを使うには、AppleのGitHubリポジトリからTensorFlow 2.4フォークをダウンロードし、インストールするだけだ。

 Googleは、この新バージョンをTensorFlowのマスターブランチに統合する予定だ。
https://www.itmedia.co.jp/news/articles/2011/19/news089.html

2 :名刺は切らしておりまして:2020/11/19(木) 22:32:35.18 ID:fAPwE4fF.net
CPUしか使ってなかったのを、GPU使うようになったら速くなったって
そらそうだろうねとしか言いようがない

3 :名刺は切らしておりまして:2020/11/19(木) 22:33:26.77 ID:abwZG1lQ.net
なんの話?
ネット記事がIT関連ばっかだった頃はこういう記事で埋めつくされていたことを思い出したよ
キングストンの512MBメモリが出たとかそんなの

4 :名刺は切らしておりまして:2020/11/19(木) 22:38:08.54 ID:0rBdG3Vf.net
「7倍高速」と聞くと、耳をそばだてる価値があるが、
「最大7倍高速」だと、ちょっと疑義も入る。

5 :名刺は切らしておりまして:2020/11/19(木) 22:44:14.79 ID:VxFTWse2.net
>>1
おれのWin10RTX3080マシンより早いのか?

6 :名刺は切らしておりまして:2020/11/19(木) 22:45:21.54 ID:ohab2tpJ.net
>>4
その程度の理解で良いよ。

深層学習の計算効率は大体予想とは異なる。

7 :名刺は切らしておりまして:2020/11/19(木) 22:45:49.95 ID:ohab2tpJ.net
>>5
3090と出来なかったところでダメだな。

8 :名刺は切らしておりまして:2020/11/19(木) 22:54:31.64 ID:ZH0YLW97.net
そもそも従来ってどの程度の比較対象なんだ

9 :名刺は切らしておりまして:2020/11/19(木) 23:00:07.08 ID:M+L3PPtG.net
>>2 Intel版は2〜3割くらいしか早くなっていないぞ。
M1 版は多分Nural CPUも使う様になってるのでは?

10 :名刺は切らしておりまして:2020/11/19(木) 23:12:44.98 ID:y3bLhAMS.net
M1チップは画期的だよ
なぜかというと光(電子)の速度の物理限界からくる制約を乗り越えたからだ
そもそもなんでクロックは3GHz程度までしか上がらないのかというと電子が遅いからだ
3GHzにもなると1クロック時間で電子は配線の中を10センチしか進めない
CPUとメモリなどの他のデバイスとの配線は往復10センチでは済まないので1クロックでは電子が届かず、応答があるまで何クロックか待たされることになる
だから高速化する手っ取り早い方法は配線を物理的に短くすることだ、これはずっと前から言われていた
そこでM1チップはCPUの上に3次元積層でメモリを載せてワンチップにしてしまった、だからクロックの無駄がないし短時間なら3GHz以上に上げることもできる

11 :名刺は切らしておりまして:2020/11/19(木) 23:13:40.19 ID:L7gCWzq+.net
>>5
intelアーキってもうほとんど意味なさない95以前のソフト動かすためななあるよーなアーキばっかだから

全廃したらそりゃ軽くなる罠と。
(アポーはとにかく使わなくなった旧仕様のデバイスに関してはひたすら削りにくるのが20年前からの仕様だから。

12 :名刺は切らしておりまして:2020/11/19(木) 23:16:31.03 ID:L7gCWzq+.net
尚、アポーは削った分以上は絶対に盛ってくるので体感速度は速いと感じるヤツほとんどいないんだがな。

セレロン企業用使ってて窓使ってるとある時期から無茶苦茶重くなってタイピングすらついてこなくなる、なんて事は流石に無いが。

13 :名刺は切らしておりまして:2020/11/19(木) 23:17:03.22 ID:37ht54PS.net
で、何年後にAMD搭載MacがM(x)Macより7倍速と言い出すの?

14 :名刺は切らしておりまして:2020/11/19(木) 23:19:04.48 ID:VR85v9tr.net
これはML界隈の人はmac買うしかないな

15 :名刺は切らしておりまして:2020/11/19(木) 23:26:09.45 ID:G/oQgOhH.net
シネベンでもGPU使われるのか? Rosseta2は魔法か?

501 Socket774 2020/11/18(水) 22:50:21.99 ID:6TRA5vTp0
AMDユーザーによると、M1はCinebench R23シングルコア測定時にGPUも使用するからスコアが跳ね上がるらしいぞ

16 :名刺は切らしておりまして:2020/11/19(木) 23:26:59.87 ID:Gb2WX0ak.net
M1をターゲットにコンパイルす場合のアーキテクチャ指定って
X86_64でもなくarm64でもなくM1みたいな新しい識別子があるの?

17 :名刺は切らしておりまして:2020/11/19(木) 23:28:31.33 ID:+4E8pw2I.net
>>9
今度のマックはKPUも積んでるんだ
これからAMDやインテルも積んでくるかGPUの外付けみたいな感じで乗っけてくるんじゃ無いかなぁ

18 :名刺は切らしておりまして:2020/11/19(木) 23:31:11.84 ID:zLMl2XU4.net
比較してるCPUだけの機械学習とか元々使い物にならないだろ
信者とエアプだけが盛り上がる提灯記事

19 :名刺は切らしておりまして:2020/11/19(木) 23:44:53.52 ID:N493iC0M.net
クソ雑魚のインテルとは比べるけど
強敵のAMDとは比べないのですね
わかります

20 :名刺は切らしておりまして:2020/11/19(木) 23:53:16.68 ID:Kjo0hYGC.net
Windowsいれられないなら買わない

21 :名刺は切らしておりまして:2020/11/19(木) 23:56:17.42 ID:VR85v9tr.net
インテルじゃなくてNVIDIAでしょ比較対象は
マックは今までAMDのGPUしか使えなかったので、、、

22 :名刺は切らしておりまして:2020/11/20(金) 00:02:11.75 ID:Xu3tcUnY.net
モバイルCPUの7倍速はガッカリ速度だぞ
まぁ非CUDAの学習ライブラリが増えるのは良いこと

23 :名刺は切らしておりまして:2020/11/20(金) 00:12:00.27 ID:GtR3YT9c.net
>>10
いや、Pen4とか4GHz超えてなかった?爆熱だったけど。

24 :名刺は切らしておりまして:2020/11/20(金) 00:15:18.70 ID:WCeYubLO.net
専用の計算機が入ってるんだから
もうちょい速くてもいいんじゃね?って言いそうになったんだが
GTX2080とかのCUDA勢と比べて速いのかな

25 :名刺は切らしておりまして:2020/11/20(金) 00:17:49.06 ID:7dsOZPTF.net
比較対象の従来のmacbook13インチってディスクリートgpu載ってなかったじゃん

26 :名刺は切らしておりまして:2020/11/20(金) 00:19:43.88 ID:1gEnurYY.net
>>3
記事の意味分かってないだろ

27 :名刺は切らしておりまして:2020/11/20(金) 00:22:42.97 ID:sndPZlZF.net
来年のiMacに期待するわ

28 :名刺は切らしておりまして:2020/11/20(金) 00:39:37.51 ID:LkT5RcmK.net
>16
で、現状でのメモリは16GBまでなんだって?

29 :名刺は切らしておりまして:2020/11/20(金) 00:40:27.67 ID:LkT5RcmK.net
間違った
>10
16ごめん

30 :名刺は切らしておりまして:2020/11/20(金) 01:29:43.84 ID:/jdjT/wM.net
過去x倍はいいから絶対時間で示せ
effnetB7のimagenet訓練は何分で終わるとかさ

31 :名刺は切らしておりまして:2020/11/20(金) 01:33:07.23 ID:LAFis7/l.net
そもそもnVidiaに見捨てられたMacで機械学習やる馬鹿なんていないと思ってたんだが、違うのか?
GeForceがないとCudaもネイティブ動作しないんだろ?

32 :名刺は切らしておりまして:2020/11/20(金) 02:52:09.05 ID:TZHV5OUS.net
CUDAだとどのへんGPUと同等なんだろ?

33 :名刺は切らしておりまして:2020/11/20(金) 08:18:32.97 ID:0Uo/Q2aH.net
>>21
今までって表現は微妙
少なくともGTX1080までは使えたわけだし

34 :名刺は切らしておりまして:2020/11/20(金) 09:38:14.22 ID:sUuyHk3T.net
>>30
ソース見に行くとお望みのグラフがある
>>1 が手抜きでグラフ貼ってないだけ

35 :名刺は切らしておりまして:2020/11/20(金) 09:59:16.83 ID:WhqXJ8pZ.net
なんなのこれよく分かんない測定で早い早いって
アドビでもハンドブレイクでもいいから
どっちがどうなのか同一ソフトのエンコで調べて!

36 :名刺は切らしておりまして:2020/11/20(金) 10:15:04.22 ID:/+V7yE4D.net
記事を読む限り、あくまでM1のGPUをさらに活用した場合となってるんで、M1のニューラルエンジン使うようにさらに最適化したらさらに早くなるんじゃない?

37 :名刺は切らしておりまして:2020/11/20(金) 10:18:41.96 ID:/+V7yE4D.net
>>23
現行のモバイル用Core iシリーズでも4GHzは超えてる(デスクトップ用は5GHz超もある)
そもそも>>10はパイプラインすら理解してないんじゃ。。。

38 :名刺は切らしておりまして:2020/11/20(金) 10:21:29.33 ID:F1K9KOg8.net
>>28
そこがいただけなかった
32積んでたら公式でスペック全盛りにして、真っ先に買ってたわ

39 :名刺は切らしておりまして:2020/11/20(金) 10:26:15.24 ID:FHFaOmiI.net
>>32
CUDAと性能比較してくれないとまったく意味なし!

40 :名刺は切らしておりまして:2020/11/20(金) 10:34:24.27 ID:yei7CD1N.net
nvidiaの2080tiがdual-xeonより100倍速かった!

41 :名刺は切らしておりまして:2020/11/20(金) 10:58:32.73 ID:p9SOjTnF.net
これMacBookProでやってるけど
CPUもGPUもフル活用するなら
ファンレスのMacBookAirだとさすがにアッチッチになったりしない?

42 :名刺は切らしておりまして:2020/11/20(金) 13:09:19.00 ID:fy7i5GRo.net
マカー信者「うおおおおおお!」

43 :名刺は切らしておりまして:2020/11/20(金) 17:44:28.22 ID:rkliUDs1.net
>>17
KPUって何?
ググっても大学の名前しか出てこない

44 :名刺は切らしておりまして:2020/11/20(金) 20:49:13.87 ID:6wgn627G.net
>>3
ここで訊くより自分で調べた方が早いぞ

45 :名刺は切らしておりまして:2020/11/21(土) 02:42:05.35 ID:OvXQ+0+I.net
>>43
http://www.stillwater-sc.com/assets/content/stillwater-kpu.html

46 :名刺は切らしておりまして:2020/11/21(土) 04:18:44.75 ID:/Ooi0wkK.net
>>24
CUDAのが100倍〜1000倍早いよ。専用チップだもの

47 :名刺は切らしておりまして:2020/11/21(土) 05:30:23.24 ID:ZK8d4LtD.net
>>46
何TFLOPよ?

48 :名刺は切らしておりまして:2020/11/21(土) 05:45:46.93 ID:ZK8d4LtD.net
演算性能は演算器数 x 動作周波数で決まる
昨今は最適化が進んでアーキテクチャが違っても極端な差は出ない

どれだけ演算器を効率良く使えるかはライブラリ次第だが、TensorFlowに固定すればその辺りも限定できてベンチマークには良かったりする

2080Tiは13.45TFLOPSだが、この100〜1000倍の性能をモバイルSoCに埋め込むのは物理的に無理なんだ

49 :名刺は切らしておりまして:2020/11/21(土) 10:13:11.03 ID:0qzwK4Wk.net
アムドは最強すぎるからインテルと戦うしかないのさアームは

50 :名刺は切らしておりまして:2020/11/21(土) 10:23:08.36 ID:Wps9ODra.net
当社比七倍じゃなくてGeForceとガチで同じデータセット同じライブラリで勝負したベンチ記事がでるまで分からんな

51 :名刺は切らしておりまして:2020/11/21(土) 10:52:52.65 ID:37LCSjL+.net
>>45
ありがとう
へー Knowledge Processing Unit

シグマ……うっ頭が

52 :名刺は切らしておりまして:2020/11/21(土) 11:01:49.26 ID:MzDOS2oX.net
2080TiはTensorCoreを使うと107.58TFLOPSやね
ちなみにM1は2.6TFLOPSとのこと

53 :名刺は切らしておりまして:2020/11/21(土) 11:24:44.42 ID:OCP0O1e4.net
>>14
もともとML界隈の人はMacと必要に応じてLinux

54 :名刺は切らしておりまして:2020/11/21(土) 11:37:09.63 ID:4wUiaWO4.net
テンソルフローに最適なのって8bit演算器が大量にあるチップよね
GPUもFPU(半精度くらい?)をSIMDすればそれに近い効率が得られると思うが実際やってるの?
RADEON系でそういう実装見たことあったが

55 :名刺は切らしておりまして:2020/11/21(土) 11:40:45.21 ID:4wUiaWO4.net
>>52
FLOPSなの?浮動小数でやってるん?

56 :名刺は切らしておりまして:2020/11/21(土) 11:43:22.00 ID:N0elhU4r.net
学習と推論で違う
学習は基本FP32で推論する時に学習モデルをFP16やUINT8に量子化する(しない場合もある)

57 :名刺は切らしておりまして:2020/11/21(土) 11:45:36.11 ID:37LCSjL+.net
>>54
7がそう

58 :名刺は切らしておりまして:2020/11/21(土) 17:52:54.46 ID:YYZ+4iox.net
NVIDIAよりこれくらい速い!っと出来ないところがなんとも

59 :名刺は切らしておりまして:2020/11/21(土) 21:27:16.40 ID:ZK8d4LtD.net
何処かでGTX 1050相当だと言う記事を見た記憶
モバイルGPUとTGP 220WとかのディスクリートGPUは同次元では語れない

60 :名刺は切らしておりまして:2020/11/22(日) 05:22:15.24 ID:fZNI1RQ4.net
NVIDIAと縁切っちゃったのにその後ディープラーニング大流行が誤算だったな
まあMacでローカルで大規模なディープラーニングは無理だから大人しくAWSとか使っとけと

61 :名刺は切らしておりまして:2020/11/23(月) 23:42:23.87 ID:sQaSxAFx.net
>>55
ニューラルネットワークの演算を浮動小数点以外で、どうやるの?

62 :名刺は切らしておりまして:2020/11/24(火) 11:46:43.18 ID:6fu6oN3s.net
>>61
Google TPUはv2までは16ビット演算しかやってない。
これは既存の強化学習方式の場合、ニューロン同志の結合は重みでしか判定していない
ため、厳格な演算結果を導出する必要はないことに理由がある。
また、推論だけなら、精度を8ビットまで落としても実行は可能。

63 :名刺は切らしておりまして:2020/11/24(火) 15:49:21.93 ID:RdauH0Mp.net
推論はweight=1bit & activation=2bitまである
GPUには意味ないけどFPGAには有効っぽい

総レス数 63
16 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★