あらゆる写真を名画風に変換するアルゴリズム、独大学研究者が発表。画家のスタイルを抽出・適用
ドイツ・テュービンゲン大学の研究者グループが、あらゆる写真をピカソやゴッホなどの名画調に変換するアルゴリズムを発表しました。
手法は顔認識や物体認識で話題になるディープラーニングの応用。ニューラルネットワークに任意の画家の作品を学習させ、「スタイル」と「対象」を機械的に分離することで、任意の写真に「スタイル」だけを適用できます。
実力のほどはピカソ・ムンク・ゴッホ・ターナー・カンディンスキーなど名だたる巨匠の画風を、何の変哲もない町並みの写真に適用した結果をどうぞ。
アルゴリズムについて発表したのは、ドイツ・テュービンゲン大学の Leon A. Gatys, Alexander S. Ecker, Matthias Bethge ら。
仕組みとしては画像の顔認識や物体認識、場面認識といったアプリケーションで目覚ましい成果を挙げつつあるニューラルネットワーク、畳込みニューラルネッ トワークを用いたもので、画家の作品を機械学習して、色使いやタッチなどの「スタイル」を描かれた主題からは切り離して抽出します。
あとはそのスタイルを任意の写真やイラストなどに適用すれば、あくまで表面的なレベルでは、いかにも巨匠スタイルの画像ができあがります。
研究者いわく、今回のサンプルのような処理に要した時間は約1時間。今後アルゴリズムの最適化やプロセッサパワーの向上があれば、スマートフォンの自撮りに写真に適用して、「歴史上の大画家を集めて自画像を描かせる」アプリもできるかもしれません。
元論文はこちら A Neural Algorithm of Artistic Style (Leon A. Gatys, Alexander S. Ecker, Matthias Bethge)
ディープニューラルネットワークといえば、こちらは先日話題になったGoogle研究者による「人工知能の見た夢」。
こちらはディープニューラルネットワークを使い建物や生物などの特徴を学習させたのち、ノイズしかない別画像からわずかでも似た部分を発見・フィードバックして強化、を繰り返した画像。奥行きや立体の概念なく二次元で特徴を捉えるためシュールな効果を生んでいます。
Google、人工神経ネットワークが見た『夢』を公開
(蛇足:ニューラルネットワーク、(人工)神経網はもともと人間の脳の仕組みをモデル化して理解する試みとして考案されましたが、その後は計算機科学分野 の便利なアルゴリズムとして発展してきました。そのため、もはや実際の脳の働きや人間の知性の解明云々とはあまり関係がありません。
「人間の脳を再現した人工知能」と表現すると何やら人間に近い知性で問題を解決してくれそうなイメージになりますが、最近話題のニューラルネットワークは非常に限定された意味でのAIであって、どちらかといえば「フィルタ」に近い道具です。)