引用元: http://anago.2ch.sc/test/read.cgi/scienceplus/1487516160



【情報技術】Googleがニューラルネットワークを使った画像圧縮技術を開発。イメージを分解し個別に最適な圧縮処理を実施







【情報技術】Googleがニューラルネットワークを使った画像圧縮技術を開発。イメージを分解し個別に最適な圧縮処理を実施



1 :もろ禿HINE! ★@\(^o^)/:2016/08/30(火) 21:51:59.28 ID:CAP_USER.net
Googleがニューラルネットワークを使った画像圧縮技術を開発。イメージを分解し個別に最適な圧縮処理を実施 - Engadget Japanese
http://japanese.engadget.com/2016/08/24/google/


Googleが、ニューラルネットワークを使う新しい画像圧縮技術を開発しています。この技術はJPEGを凌ぐ圧縮率を実現するために無数の画像をニューラルネットワークで分析し、画像を細切れにして処理することで既存の方式に対して4~8%効率的な圧縮を実現できるとのこと。


Googleは実験で約600万枚のランダムな画像データをニューラルネットワークに読み込ませ、それらを32x32ピクセルに断片化、各画像から最も画質への影響が少ない100の断片をそれぞれ選び出しました。さらに、各断片の圧縮および展開プロセスをバイナリーコードレベルまで分析し、断片ごとの効果的な圧縮を学習させたとしています。

さらに画像を圧縮処理する際は断片ごとに最適な圧縮を施し、ブロック化しやすい継ぎ目の部分は人間の視覚認知特性に最適となるよう調整したうえで、1枚の画像に再構成して保存します。これにより高い圧縮効率と画質を保った画像ファイルになるとのこと。

とは言えこれは「非常に大雑把に言えば」という前置きつきの話で、実際には裏でかなり複雑な処理をしていることが論文からはうかがえます。特徴に絞っていえば、JPEGなどの画像なら圧縮処理が1枚の画像全体を対象に施されるのに対し、この研究では画像を細切れにして、その部分ごとに最適な圧縮処理を施しているのが他と異なるポイントと言えそうです(JPEGはDCT変換の際8x8ピクセルに分割して処理しますが、圧縮処理は画像全体で施しています)。

なお、今回の研究は画像フォーマットそのものを開発するのでなく、画像の圧縮プロセスを工夫して視覚的な画質を保ったままファイルサイズを小さくしようという試みです。よって最終的な画像のフォーマットについてはとくに定められてはおらず、WebPのような新フォーマットとして公開されるものでもない模様です。

ただ、もしかするとGoogleフォトなど膨大な写真を保管するサービスなどでは、ストレージ容量の削減(電力消費の削減)のために、いずれこの圧縮方式が使われるようになる可能性はありそうです。

ちなみにArXiv.orgに掲載された論文では、エンコード/デコード処理、バイナリー変換、エントロピー符号化といった画像処理の専門的な用語がずらずらと登場します。好きな人が読めばさぞ楽しそうな内容となっていますのでご興味のある方はどうぞ。


2 :名無しのひみつ@\(^o^)/:2016/08/30(火) 21:53:15.54 ID:JCq+btxp.net
『美人すぎるコスプレイヤー集』美人揃いで話題沸騰だったダイハツコンパニオン
https://t.co/KbN5bhDFka


死海に黒のドレスを2カ月沈めたら、ウェディングドレスに生まれ変わった(画像)
https://t.co/eeMnzgoK4I


3 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:05:48.36 ID:VtKT2llR.net
ブロックノイズが防げそうだね


4 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:13:47.80 ID:l3bA/fBn.net
断片ごとにエキスパンドする方法のデータが付属するのか


5 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:14:48.72 ID:zrkM19DH.net
画像圧縮技術の起源は韓国!


6 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:15:16.61 ID:zrkM19DH.net
画像圧縮技術の起源は韓国!


7 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:31:33.63 ID:8cxYMZkR.net
おすぎの画像とピーコの画像を保存する場合、
おすぎの画像とメガネ単体の画像をやりくりすれば
どちらの画像も再現できるしくみ


8 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:38:27.30 ID:s7p37oLX.net
最近ディープラーニングに絡んでGPUでニューラルネットワーク使えるようになって
きてるからその流れだろうかね
一から学習してってんなら面倒だがその辺の流れどうなのか読むのしんだいな


9 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:40:50.19 ID:s7p37oLX.net
実際問題WebPでもかなりの圧縮率あるからはよ全ブラウザ対応してビューワも
どんどん配布してほしいんだけど>ゴーグルさん


10 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:43:39.75 ID:9NxObL0M.net
> 既存の方式に対して4~8%効率的な圧縮を実現できる

はい解散


11 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:46:09.00 ID:FD10NQ/5.net
保存というより経験則による描き直しって感じか


12 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:47:58.65 ID:O5Cm14hN.net
アホンのどうでもいい特許と一味違うな


13 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:49:28.61 ID:s7p37oLX.net
>>12 ネットワークトラフィックとかかなり真剣にやってるからその辺の技術の一旦なんやろね
トラフィック減らして如何に情報をサクサク集めるかという(笑)


14 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:50:45.52 ID:ciXmXNcb.net
日本のITは派遣ピンハネ業だから日本では絶対に無理だなw


15 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:55:50.59 ID:veuIZK3+.net
JPEGより効率高い圧縮方式はたくさん提案されてるけど、
JPEGが普及し過ぎてて相手にされてない。
画質もJPEGで十分だし。


16 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:59:38.65 ID:5EfdVEo5.net
これはもしやMAGが再び脚光を…


17 :名無しのひみつ@\(^o^)/:2016/08/30(火) 22:59:44.82 ID:s7p37oLX.net
>>15 PCベースで考えたらそうだけど今は端末が多岐にわたってるから、
容量少ない端末でも十分に画像を保存するためにはまだまだ圧縮足りない
と思われ


18 :名無しのひみつ@\(^o^)/:2016/08/30(火) 23:16:18.86 ID:XpykYhoB.net
>>16
久しぶりに聞いた


19 :名無しのひみつ@\(^o^)/:2016/08/30(火) 23:19:56.33 ID:FD10NQ/5.net
JPEG2000


20 :名無しのひみつ@\(^o^)/:2016/08/30(火) 23:29:50.26 ID:IemIeK+G.net
>>19
先に書かれてた


21 :名無しのひみつ@\(^o^)/:2016/08/31(水) 00:40:44.64 ID:zImw5aZG.net
>>15
名前の問題じゃないのか。より格好いい名前で、そちらのほうが優れてれば、
そっちが浸透するでしょ。


22 :名無しのひみつ@\(^o^)/:2016/08/31(水) 00:49:43.84 ID:X0kWmKLC.net
モノクロでの画像検索実装しろ


23 :名無しのひみつ@\(^o^)/:2016/08/31(水) 01:39:17.25 ID:Pb8Uc7Ta.net
4~8%じゃなぁ


24 :名無しのひみつ@\(^o^)/:2016/08/31(水) 01:43:27.57 ID:9xuNGHih.net
ていうかこれ別に新技術でもなんでもない。
とっくに類似のライブラリをOSSで入手できる。


25 :名無しのひみつ@\(^o^)/:2016/08/31(水) 05:29:33.99 ID:8SAq95Rt.net
すげぇ。
つまり圧縮技術にディープラーニングの技術が入ってるってことでしょ?


26 :名無しのひみつ@\(^o^)/:2016/08/31(水) 06:09:14.17 ID:GN/jsy/X.net
圧縮じゃないけどwife2xと似たような応用か。


27 :名無しのひみつ:2016/08/31(水) 08:12:30.41 ID:PQ0KNxIrf
全く関係ない画像の断片から、コードにより復号することで、
90%以上近似の画像を作り出す暗号化技術。
コンピュータが0から創造レベルに達するかもしれん。


28 :名無しのひみつ@\(^o^)/:2016/08/31(水) 08:19:27.98 ID:DijR/Ivx.net
>>24
その OSS の名前は?


29 :名無しのひみつ@\(^o^)/:2016/08/31(水) 08:53:14.56 ID:TQ6pddH8.net


つまり
個々の画像データの圧縮による新しいフォーマットではない、っとことだろ。
あくまで 無数の画像データをパッケージにした巨大なファイルのストレージ容量を 
画像の分割、配置方法を工夫して 小さくする?! みたいな、エントロピー符号化によるサンプリング標本の整理。?!

お前ら個人のPCには関係ない あまり。みたいな
でも 寺バイトやペタバイトくらいなファイルなら 関係ある鴨?!


30 :名無しのひみつ@\(^o^)/:2016/08/31(水) 10:08:10.71 ID:ThWS0gKR.net
>>25 ディープラーニングがNN使ってるだけで、NNなんて化石並みの技術だっての
ただ、NNがハードで使えるようになってきてるから学習速度とかは格段に早くなっ
てるし、ソフトではできない巨大なネットワークで瞬時に学習できるようになって
きたってこと


31 :名無しのひみつ@\(^o^)/:2016/08/31(水) 10:10:14.39 ID:ThWS0gKR.net
>>29 Googleが目指す圧縮技術の進歩はネットワークトラフィックの抑制かと
スマホなんかでは十分な速度でないし、ましてや保存容量も少ないからより
圧縮率の高い画像が求められるってことで
PCが伸びない以上、そう言った端末に向けてのサービス提供が今後のIT業界
の流れになるって話


32 :名無しのひみつ@\(^o^)/:2016/08/31(水) 11:39:21.62 ID:GfnJmR7H.net
そういえば昔、フラクタル符号化が流行りそうになった時期があったな。

画像には似た様な断片模様がたくさんあるから似たものを縮小拡大、変形して
コピペすることで大幅な圧縮ができる。(コラージュ定理)

でも"似た様な"を自動で識別できず人手に頼っていたのでこのときは実用にならなかった。
これを人工知能でやるつもりなのか?


33 :名無しのひみつ@\(^o^)/:2016/08/31(水) 12:24:46.80 ID:65L2yv9y.net
見た感じ高圧縮率で効果的っぽいから
デコードが早ければ動画向きの技術なんじゃないか。


34 :名無しのひみつ@\(^o^)/:2016/08/31(水) 12:34:35.78 ID:ThWS0gKR.net
>>32 色んな技術の複合、力技っぽいから線引むずかしいねっと。
その辺の複合の組み合わせの最適解を導き出すってんならNNなり
人工知能でやるってのに向いてるかも


35 :名無しのひみつ@\(^o^)/:2016/08/31(水) 13:23:51.22 ID:s0bvB8FY.net
>>1
20年ぐらい前、当初Mpeg4でやろうとしてたこと+アルファかな
あの当時、画像をオブジェクトに分けるとか無理だろ と思ったけど
ようやく実現できるようになったってとこか


36 :名無しのひみつ@\(^o^)/:2016/08/31(水) 13:38:35.23 ID:C0sycJoU.net
>>10
お前にはその数字のすごさが理解できないみたいだなw


37 :名無しのひみつ@\(^o^)/:2016/08/31(水) 14:09:40.76 ID:IrhpEZ1r.net
>>1
> この技術はJPEGを凌ぐ圧縮率を実現するために無数の画像を
> ニューラルネットワークで分析し、画像を細切れにして処理
> することで既存の方式に対して4~8%効率的な圧縮を実現
> できるとのこと。

JPEGと比べて同画質で92~96%のサイズってことなら
大したすごいものではなくね?


38 :名無しのひみつ@\(^o^)/:2016/08/31(水) 14:12:17.25 ID:oTv72P4s.net
分からんから ガンダムで喩えてくれ!


39 :名無しのひみつ@\(^o^)/:2016/08/31(水) 14:42:04.17 ID:OiJ1iUq8.net
PNGでいいよ
不可逆圧縮はいらない


40 :名無しのひみつ@\(^o^)/:2016/08/31(水) 14:55:08.48 ID:Hq5Cxy/s.net
つまらない論文
ブロックノイズの問題は?


41 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:15:06.15 ID:BM1tkq+/.net
>>15
こは派jpegにも適用できるアルゴリズム
断片サイズが4倍になってる


42 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:16:06.76 ID:BM1tkq+/.net
>>40
継ぎ目を重点的に修正すると書いてある


43 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:17:22.78 ID:YVh9nVnx.net
>>37
塵も積もれば、だからな
1TBの5%は50GBだから、大容量使ってるところほど助かる


44 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:21:29.01 ID:BM1tkq+/.net
>>37
GoogleはPhotoサービスを
容量無制限かつ無料で使うには
画像の品質に制限を設けており
自動的に圧縮してる
この技術で無料版用のストーレージを5%前後節約できる
他社が同様の技術を考えない限り
常にストレージコスト的に5%程度優位になる


45 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:23:13.35 ID:BM1tkq+/.net
>>38
ザクは1.05倍速くなった


46 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:26:54.20 ID:LSvJEKaC.net
>4~8%効率的な圧縮
zipとrarぐらいの差だが、グーグルぐらいでかいとこだと相当圧縮できるな


47 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:36:03.96 ID:BM1tkq+/.net
>>39
クラウド上の大量データに適用する応用を考えると
可逆圧縮も対象に出来るような技術
画像内に閉じて探すと全く同じ断片はなかなか見つからないけど
クラウドに広げればそうでもないから


48 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:52:48.65 ID:xxw9pr+v.net
不可逆だから劣化の評価方法が気になる


49 :名無しのひみつ@\(^o^)/:2016/08/31(水) 15:58:02.59 ID:Hq5Cxy/s.net
実際の画像もfig.にないし


50 :名無しのひみつ@\(^o^)/:2016/08/31(水) 16:15:47.33 ID:4+W6Ik97.net
これで圧縮された画像ファイルを展開するのに家庭用PCではメモリ不足になったりするんだろ?


51 :名無しのひみつ@\(^o^)/:2016/08/31(水) 16:16:13.73 ID:gKUoD74r.net
>実際には裏でかなり複雑な処理をしていることが論文からはうかがえます。
データを保存する媒体のコストも相当下がっているが
それに見合うだけのコストなんだろうか?
CPUパワーをより必要とされたり、互換性はCoogleがどこまで保証してくれるのか?
正直、現状のフォーマットの種類でも再生できないデータが出てきたりして閉口している
まぁ~た増えるのか


52 :名無しのひみつ@\(^o^)/:2016/08/31(水) 19:29:30.98 ID:1beXU77+.net
フラクタル圧縮というのが昔あったが
人工知能って要するにパターン認識だろ


53 :名無しのひみつ@\(^o^)/:2016/08/31(水) 23:50:27.75 ID:Dd2jM0mM.net
MP4の静止画版か


54 :名無しのひみつ@\(^o^)/:2016/09/01(木) 00:12:20.79 ID:rEBo0E+k.net
フォトショップでスベスベに修正された太ももでは勃起できない。


55 :名無しのひみつ@\(^o^)/:2016/09/01(木) 01:09:50.61 ID:Iq6Z/7+B.net
ベクトル量子化とK-mean法の類なのだろう。


56 :名無しのひみつ@\(^o^)/:2016/09/01(木) 08:27:47.42 ID:HkUm5L1w.net
>>7
wwwwwwww


57 :名無しのひみつ@\(^o^)/:2016/09/01(木) 08:53:28.88 ID:fWpPRCLc.net
>>52
経験にもとづく統計的パターン認識
定常系であれば有効


58 :名無しのひみつ@\(^o^)/:2016/09/01(木) 12:19:13.16 ID:8B2w4FXe.net
でもjpegに取って変わらないんだろ?


59 :名無しのひみつ@\(^o^)/:2016/09/01(木) 16:55:55.60 ID:bRjJMus+.net
>>58
jpegに適用可能


60 :名無しのひみつ@\(^o^)/:2016/09/01(木) 19:11:53.82 ID:Ot/nvMiI.net
MAGとか知ってる世代がいてワロタw

MAKIとかもあったよね


61 :名無しのひみつ@\(^o^)/:2016/09/02(金) 00:04:23.96 ID:aBHzJjlY.net
いまさら新しい圧縮形式作ってどうすんの?新しい形式なんて誰が使うんやと思ったら

自分のサーバ容量圧縮に使いたいってことか


62 :名無しのひみつ@\(^o^)/:2016/09/02(金) 00:09:46.53 ID:vtLa5u0d.net
ネットワーク帯域は急速に増えないからな


63 :名無しのひみつ@\(^o^)/:2016/09/02(金) 00:14:06.70 ID:M3jBppaQ.net
>>58
個人では、googleが変換サイト用意したら遊びに使う程度だわ。


64 :名無しのひみつ@\(^o^)/:2016/09/02(金) 00:14:33.95 ID:eEU41OIV.net
可逆??


65 :名無しのひみつ@\(^o^)/:2016/09/02(金) 00:37:21.34 ID:vtLa5u0d.net
解像度が倍になっても、複雑さが倍になるわけじゃないから
圧縮後のbpsはそんなに増えない


66 :名無しのひみつ@\(^o^)/:2016/09/02(金) 00:54:19.20 ID:phGkX47C.net
まとめると、
ネットワーク帯域はネットワーク対応端末が増える限り圧迫される一方。
今の画像圧縮方式ではまだまだ圧縮率が足りなくてより圧縮が可能な方式が望まれる。
JPEGより圧縮率が高く可逆な方式のWebPはすでに存在するも一部ブラウザにしか標準
サポートされていない(主にChrome系)。
ニューラルネットワークはGPUのサポートにより高速に利用できる手法として一般的に
なってきたため、利用するに越したことはない。
Google自社サーバー内での圧縮方式として利用するのであれば一般ユーザーには関係
ないが、パターン認識のような手法でパターン毎に画像を圧縮する方式は人工知能の
研究にも役立つからやっておいて損はない。
てなところかな。

実際の所は可逆な方式のWebPが全プラットフォームで対応すれば(実際、デコーダは
フリーなのですでの全プラットフォームで利用可能)、特に困ることはないだろうけ
れどもと言うところ。


67 :名無しのひみつ@\(^o^)/:2016/09/02(金) 01:20:14.09 ID:vtLa5u0d.net
裏googleとして、xvideos辺りを買収してくれんか


68 :名無しのひみつ@\(^o^)/:2016/09/02(金) 04:41:30.73 ID:nsbdDBTU.net
>>67
エロサイトと技術提携すれば、世界のトラフィックの1割は減らせる
なおかつ再生にマシンパワーが要るため買い替えでハード開発も回る
お前天才だな


69 :名無しのひみつ@\(^o^)/:2016/09/02(金) 08:34:48.49 ID:4vSsWniY.net
>>45
お前、恐ろしいほどに例えが下手だな


70 :名無しのひみつ@\(^o^)/:2016/09/02(金) 17:10:44.43 ID:pmRF6XAb.net
>>68
トラフィックはわかるがマシンパワーなんてもうこれ以上要らんだろ
このマシンならAIでモザイクを完全に解除します
とかなら買い換えるけど w


71 :名無しのひみつ@\(^o^)/:2016/09/02(金) 18:39:58.82 ID:nGQj+Njt.net
jpegに適応出来るとか言ってる奴は何言ってるの?
JPEG 3000とか新しく出来るだけだぞ
何の意味があるんだよ


72 :名無しのひみつ@\(^o^)/:2016/09/06(火) 01:03:45.62 ID:wTkNi78p.net
たった数%のために、いちいちぐぐる様にお願いしてデコードすんの?
おとこわりだ。


73 :名無しのひみつ@\(^o^)/:2016/09/06(火) 10:52:13.68 ID:Bdj5eY88.net
ファイル間の重複したデータを共通化して
容量削減するとかの方が効きそう。


74 :名無しのひみつ@\(^o^)/:2016/09/09(金) 05:39:10.55 ID:8qokRi1k.net
>>72
「おとこわりだ。」って、素敵な言い回しですね。


75 :名無しのひみつ@\(^o^)/:2016/09/15(木) 14:02:06.78 ID:X9tfLYzw.net
>>71
jpgの圧縮は画像をグリッドに分けてその中を機械的に最適化してるのを
そこの部分をディープラーニングで数%効率化できるって話だぞ。


76 :名無しのひみつ@\(^o^)/:2016/09/24(土) 15:50:56.04 ID:Z9XQ8N9q.net
マジックで塗りつぶされて欠損した箇所のある画像でも、
大量の学習を背景として、欠損箇所を推定によりつじつまの
合うように補修ができるというわけなんだな。


77 :名無しのひみつ@\(^o^)/:2016/09/26(月) 17:00:04.58 ID:TIkTxb4r.net
もっともらしい映像を見つけてきて、置き換えて修復する推定するのだから、
そんなことして修復された画像には証拠能力なんかないな。思い込みを実体化
したに過ぎないわけだから。


78 :名無しのひみつ@\(^o^)/:2016/09/26(月) 23:57:51.46 ID:7vfskyni.net
JPEGの時は解像度低かったから8*8でやるのが最適だったがスマホでも8Kとか言ってる
今は32*32のほうが圧縮率上がる、ってだけの話じゃね?


79 :名無しのひみつ@\(^o^)/:2016/09/27(火) 00:11:27.79 ID:Jh1U98kH.net
で、weissman scoreは?


80 :名無しのひみつ@\(^o^)/:2016/10/08(土) 11:04:18.35 ID:eDMEj4r4.net
http://www.nature.com/news/can-we-open-the-black-box-of-ai-1.20731


81 :オーバーテクナナシー@\(^o^)/:2016/10/08(土) 11:14:15.23 ID:Ak2RI/Zi.net
人工知能
http://rio2016.2ch.net/test/read.cgi/future/1286353655/


82 :名無しのひみつ@\(^o^)/:2016/10/08(土) 19:42:28.74 ID:eDMEj4r4.net
自動運転のできる車の応用は無人戦車でしょう。
画像の自動認識は、人を見分けて、銃で撃ち尽くすロボットでしょう。
無人の爆弾ヘリとか、スマートミサイルとか、ロボット兵団とか、
無人潜水艦とか、移動型の対戦車地雷とか、
 便利な兵器に使われる研究がAIの中核になると思います。

ニューラルネットによるディープラーニングとして行われた
研究は将来、ロボットがあなたを追い詰めて銃弾で撃つため
に大いに役立つのです。


83 :名無しのひみつ@\(^o^)/:2016/10/09(日) 08:31:17.21 ID:y8U6RkoD.net
>画像を細切れにして処理することで既存の方式に対して4~8%効率的な圧縮を
>実現できるとのこと。
まったくもってニューラルネットワークみたいな重い計算量かけてそんだけ
ってどんだけ効率わるいんだよ。
画像のフラクタル圧縮てどうなったんだろ。




21 KB


新着レスの表示



掲示板に戻る
全部
前100
次100
最新50


名前:
E-mail (省略可) :







read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★