悪夢は,意図された悪夢に過ぎないよ

みんな面白がってるから,さもこれが完成形であるかのように錯覚してない?
250349


僕の作例

知ってる人も多いと思うけど,この気色悪い画像はGoogleが開発した画像処理技術 ”deep dream” を使用して処理して生成したもの.処理前の画像はこれ.特になんの変哲もない,普通の郵便ポストです.これをGoogleの開発したアルゴリズムで処理すると,冒頭に載せたみたいな気色悪い画像が生成されるわけです.あ,これはソースコードが公開されているらしくて,それを上手いことWEBで実装してしまったサイトがあるのです.それはここね.

2503s49
このサイトは,この機能が人気すぎてサーバーが負荷集中してるみたい.この俺の作例を完成するのに1周間もかかっちゃいました.2015年7がつ14日にアップロードして,完成したのは7月20日.まぁ頻繁に「できてるかな?」って確認したわけじゃないし,画像をそもそも負荷集中してない状態だと,どれくらいの速度でこの処理が完了するのかも知らない.でもこれで遊ぼうと思った人,結構時間が掛かることを覚悟したほうがいいかもね!

重要なのはここ!

これは引用ですけど,非常に重要なことを言ってる.これを知らずに,Deep Dreamで遊ぶべからず!と言いたいくらいに重要!

画像識別用の人工ニューラルネットワークが見た『夢』画像を発表したのは、 Google のエンジニア Alexander Mordvintsev, Christopher Olah, Mike Tyka 氏。
Google は写真の被写体や場面・状況を機械的に識別するために、人工ニューラルネットワークによる機械学習の仕組みを使っています。たとえば先日リニューアル公開された「Googleフォト」アプリでは、ユーザーが事前にキャプションやタグなどを加えなくても、「ケーキ」や「水」といった言葉で自分の写真をピンポイントに探せます。
このニューラルネットワークは動物や建物などの膨大なサンプル写真を元に、見た目の「~っぽさ」を学習しているため、ちょうど人間が壁の染みに顔を見つけるように、少しでも似ているものには反応するようになっています。
こちらの画像は、敢えて無関係な雲や風景の写真を与えて、「知っているパターンに近い何か」が少しでも検出されたら、その部分をフィードバックループで繰り返させて、つまり自分の(誤)認識をさらに認識させて、何かを無理に発見させた画像。本来の使い方は画像から認識結果(言葉)を得るものですが、この例では逆に画像を出力させています。

  1. 人工知能が画像から被写体(犬や猫や人など)を学習する機能を作成(G+で使ってる!)
  2. 学習で習得した被写体の特徴に基づいて,特徴に少しでも合致する箇所を強調する機能を作成(今回のおもちゃ!)

ここに書かれている通り,このDeep Dreamはこれが完成形じゃない.これは別の文脈で開発された技術を,おもちゃとして遊べるように調整して発表したものなんだね.こういうわけで,これが目的の製品ではないということ.こんな気色悪い画像を作成するだけのアルゴリズムなんて必要ないもんね.これは,画像から被写体を抽出するアルゴリズムを作成した,そのオマケとして生まれたおもちゃなんですね.それを忘れずに!

コメントを残す

%d