【人工知能】ラフ→線画のエンジンを試した話
面白い.僕のための成果?
早稲田大学が開発・公開している,ラフスケッチを自動で綺麗に線画化するエンジンを試してみた.まずはこのラプトルがビームを吐き出してる絵.
これがこうなる.
すごい.圧倒的.もともとそれほど線に迷いがある絵じゃないけど(例えば足の線は1本線で,書き直してない),でも全体が綺麗に直ってるのは素晴らしい.これは面白い.これにGIMPでザクザク色を塗ってみたらこうなった.
総製作時間の割にあうクオリティだと思う.
他にも試してみた.色は塗ってないけどね.昔僕が描いた牛と猿の絵.
綺麗になるねぇ.面白い.
僕は以前,早稲田大学が開発・公開した「白黒写真に自動で着色する人工知能」をUbuntu上で試して,その結果の記事をブログに書いた.かなり多くの人に読んでもらって,却って「こんなに沢山の人に読まれたら僕の知識レベルがバレてしまう…!」なんて恐ろしくなったりもしたんだけど笑.
今回もその早稲田大学の同じチームから発表された人工知能の話.発表自体は最近のことではない(2016年7月)んだけど,それをオンライン上で公開して誰でも簡単に試せるようになったのは2016年9月のこと.まぁでも今11月だから少し遅れた話題かも笑.
これを試してみた.特設サイト上ではAdobeの線画抽出エンジンとの比較とかが載ってるけど,実は僕はそれらを試したことがない.だから今回試した早稲田のエンジンが他と比べて優れてるのかどうかよく分かってない.でもまぁ面白いから良いと思う.でも例えば上に載せた猿の絵の例だと「MONKEY」の字の輪郭は全く曖昧さが無くくっきり書かれてるのに,線画化すると線が途切れたりしてる.そこはまだ進歩の余地だね.
気になるのは,これが「誰の」「何を」解決するエンジンなんだろうと言うこと.まぁ普通にGIMPとかに実装されたら嬉しいけど,そのためには膨大な「ラフスケッチ」と「清書された線画」の組が必要だよね…
もしGIMPがこの研究成果を取り込むことになったとしても,その「学習データをどのようにして準備するのか?」という課題をクリアするのは大変そう.というか,早稲田の人たちはどうやって集めたんだろう?論文に学習データの集め方って書かれてるのかな…?