ysdyt.net

Aiming at the boundary between digital and analog

Maker Faire Tokyo 2017 に初出展して「MSゴシック絶対許さんマン」を展示しました!

2017/08/14 ysdyt 0 Comments

Pocket

睡眠時間をガリガリ削りながらもなんとか、「Maker Faire Tokyo 2017」に無事に出展してきました。

イベント前夜の終電1時間前に初めてきちんと意図通りの動作を行い、当日も開場10分前ギリギリまで動かなかったという常に綱渡り状態でこぎつけたわりには、たくさんの方にブースで足を止めていただき、そこそこ存在感のある展示になったのではとホクホクしています。

 

メイカーフェア?

「Maker Faire」はアメリカ発の世界中で開催されているDIYのイベントで、その中でも特に日本で開催される「Maker Faire Tokyo」は参加者数が世界最大となるモノ作りの一大イベントです。今年開催された「Maker Faire Tokyo 2017」で10年目の開催となるそうです。

一般のモノ作り愛好家(このムーブメントではそういった人を “Maker” と呼んでいる)の作品展示だけでなく、企業のワークショップコーナーや体験コーナーなどの参加型のコンテンツも多数あり、子供から大人まで一日だけでは回りきれないほどユニークで熱量の高い作品が所狭しと並んでいます。

今年は8月5日(土)、6日(日)に東京ビッグサイトにて開催され、出展者数も過去最大の約450組となりました。

個人的にもMaker Faire Tokyoには過去2年間一般参加者として参加していました。

「いつか自分も出展者として参加したいなー」とぼんやりと思っていたところ、去年のMaker Faireで “キュウリでディープラーニング” と出会ってしまい、「本業で機械学習している者としてこれは負けられない!!!」と奮起し、今年の参加を決意したという経緯です。

ただ、純粋に “キュウリでディープラーニング” は本当に心から感動して、ブログにもラブレターのごとく熱い思いを書いたところ、それが思わずバズってしまい、「他人のフンドシで一体何をしているのだろう」と改めて冷静になった時に悔しい思いが湧いてきて益々奮起したという経緯もあります(情緒不安定かよ)

 

何を展示したの?

我々のチームでは、”フォント”の違いをディープラーニングで見分けるロボットアーム、“MSゴシック絶対許さんマン” を展示しました。「なんかダサい」「仕事の文書っぽくて気分が下がる」と、何かと嫌われている “MSゴシック” のフォントを自動識別し、アームで拾い上げて床に捨てます。本業でデータ分析とか機械学習の業務を行っている別々の会社のメンバー4人で作成しました。「ナウい技術で超絶くだらないことをover killする」「”技術の無駄遣い感” を全面に押し出すこと」を目指しました!

「MSゴシック絶対許さんマン」がMSゴシックを識別して床に捨てている様子はこちらからも見れます。

 

どうやって動いてるの?

見た目はただのおどけたギャグ展示ですが、中身は真面目なことを地道に頑張っています。

この展示では「日本語フォントを識別する」というマニアックな分類を行うために、自分たちでフォントのデータセットを作成・TensorFlowで畳み込みニューラルネットワークを実装し、フォント特徴を学習しています。
フォントのデータセットは、「フォントかるた」という一般販売されているジョークかるたをひたすらカメラで撮影してデータ化し作成しました。

今回のデモ展示では「MSゴシック」のみを識別しロボットアームにピックアップさせるようにしていましたが、学習したネットワーク自体は「フォントかるた」に収録されている48種類のフォントが識別出来るようになっています。

 

また、ロボットアームを動かすデモだけでなく、Grad-CAMという手法を用いることで、この学習ネットワークがフォントのどこを見て(どういった特徴量を重要視して)分類を行っているのかを可視化した説明展示も行いました。(Grad-CAMはメンバーの一人が一晩でChainerで実装しました。マジかよ。。。)

可視化手法Grad-CAMの詳細な説明については、こちらのブログ記事が詳しいです(弊社の技術ブログステマです)

 

ロボットアームが動いてカルタを選ぶ様子は小さな子どもにも大人気で、また深層学習の技術的な説明やフォント特徴の可視化結果は、深層学習に興味のある方・フォントを扱うデザイナー・出版業界の方にも非常に興味深く聞いていただけました。「このフォント識別、アプリとかにしたら儲かりますよ」とお声がけ頂いたりするなど。

自分たちの会社の “でーたさいえんてぃすと” な方々もたくさん(冷やかしに)来てくれました!

ちなみに自分はディープラーニングを”人工知能”と呼ぶことにはアンチ派なので、誰も気にしなかったとしても一度も”人工知能”とは口にしませんでした。褒めてほしい。

展示ブースの場所が良かったこともあり、休憩時間が取れないほど見学者対応に大忙し。東大の松尾研出身者の方やNVIDIAの社員さんも見学に来られたりして冷や汗をかくなど。

小学生くらいの小さな子たちもたくさん見に来てくれました。原理はわからずとも、このロボットアームが何をしているかはわかってくれてたみたいです。

 

幾つかのメディアや個人ブログでもゴシック許さんマンを紹介していただきました。

 

本国Maker Faireを運営している団体「Make:」の公式webメディアでも写真付きで紹介されました。「親に向かってなんだそのMSゴシックは」のネタTシャツの英訳が晒されるという羞恥プレイ付き。”Font joke meets deep learning” というフレーズがイカしてる。

 

ブースの説明対応で他の展示をみることがほとんどできませんでしたが、出展して本当に良かったです!3年越しの出展側参加だったこともあり超超超楽しかった!

Post from RICOH THETA. #theta360 – Spherical Image – RICOH THETA

本業でもデータ分析・機械学習的なことをしているので、普段はビジネスマンや、既に機械学習に十分詳しい学生の方に対して我々の仕事の事やディープラーニングとは、みたいな話をしますが、完全にこの分野の門外漢な一般人の方やチビッ子にこの展示は何なのかをひたすら説明するのはなかなか新鮮で楽しい体験でした。

見学者の方からのコメントで、(※なんちゃってディープラーニングも広義の”人工知能”とする場合)「人工知能ってなんだろうと思ってたけど、こうして動いているものを見ると実感が湧きますね」と言ってくださって、「そうかこれがディープラーニングとの初めての接点なのか」と思うと、ある人にとっての「これから社会を変えていくであろう技術(大げさ)との初めての遭遇の機会」を作り、そこに立ち会えた嬉しさみたいなものも感じられました。

こういう場は決してお金にはならないのかもしれませんが、話題の技術をジョークめかしたおもちゃに見せかけてたくさんの人に触れてもらうのはなかなか意義深い活動なのでは、と個人的には思ったり。

 

おまけ1

当日にMaker Faireの隣の会場でデザインフェスタというイベントが行われており、そこで 「フォントかるた(※われわれが勝手にデータセットとして使っているカルタ)」の製作者の方々が同じく出展されていました。

以前のエントリーでも書いたとおり既に面識はあったのですが、我々の展示をわざわざ見に来てくださいました。その記念撮影。みんな個性的なTシャツ着てる。ヤバイ。

ちなみに我々が着ているヘンテコなTシャツはこちらで購入できます。※自作ではない

「機械学習」という技術を通じて予期せぬ業界の方々と繋がる時、この技術の汎用性の高さにいつも期待が募ります。もっともっと実用的な社会実装をあらゆる業界で進めて、人間がやらなくて良い仕事をガンガン減らして、みんながもっと楽に楽しく生きられる世の中になるように貢献していきたい。

 

おまけ2

昨年話題になったキュウリディープラーニングが、今年は順当にさらに進化してまた展示されていました。

昨年の展示内容の細かいスペックはこちらを参照。

昨年との差分として進化していた点は、

  • キュウリは一本づつ推論(等級振り分け)を行い、推論が終わったキュウリを機械的に落下させて箱に落とす → キュウリが傷つくので廃止
  • その代わり、「キュウリを一本づつ推論」から「(ほぼ)同時に複数本推論可能」に。
    • モニター上にキュウリを並べていくと、並べたキュウリがどんどん推論されていく。推論スピードが飛躍的に上がってるっぽい。1本あたりの推論が早いのでほぼ同時に複数本を計算しているように見える

昨年度のバージョンでは、作業者がコンベアに一本づつキュウリを置いていき、コンベアの流れる先でキュウリに対する推論(等級振り分け)が1本づつ行われ、それが終わったキュウリは機械的に等級に応じた箱に突き落とされるような仕様となっていたようです。実際に人手が必要となるのは一番最初にキュウリをコンベアに乗せてあげる工程のみのようでした。

対して今年の進化バージョンでは、人がキュウリをモニター上にざらざらと並べ(モニターの上部にカメラが設置されておりそれでキュウリを検知する)、並べた直後から推論が始まり、等級振り分けが終わったキュウリをまた人がそれぞれの箱に入れてあげるという仕様になっていました。

人が介する部分は増えたように見えますが、推論スピードが飛躍的に上がり、しかもリアルタイムにほぼ同時に複数本のキュウリを推論できるので、トータルとしては効率が向上し、時間短縮もされているように見えました。

推論を行っている計算リソースは去年と同じくラズパイ1台(畳み込み2回・全結合3回くらいの浅いNNなのでラズパイでも現実的な時間で推論が完了する)で、マシン全体の大きさも格段に小さくなっており、いよいよこれは売り物としてもアリなのではないかという雰囲気。秀逸だなぁ。エンジニアほんとかっこ良い。

ちなみに、Maker Faireの出展者だけが参加できる懇親会が1日目の閉会後にあり、そこでキュウリディープラーニングの作者の方をお見かけし、今回の出展のきっかけとなったことへの感謝とディープラーニングに関する熱い語らいをしたかったのだけど(完全にただのファン)、ここまできて人見知りが大爆発してしまい話かけることができなかった…それだけが後悔…orz

 

おまけ3

会社の広報部の方から、「会社の公式ブログにも書きません?」と声をかけていただいたので書くことになりました。このイベント参加にはロボットアームなどの会社備品を借りたりはしたものの、いちおう完全にプライベートな趣味としての参加だったので会社のブログに書くのも変な感じなんですが、会社の公式アカウントで「MSゴシック絶対殺すマン」という字面が出るのが面白かったので書きました。

  • ”フォント”の違い、深層学習で区別できるのか? ー ディープラーニングでフォントを見分けるロボットアーム「MSゴシック絶対許さんマン」を「Maker Faire Tokyo 2017」でお披露目 – http://blog.brainpad.co.jp/entry/2017/08/22/160000

で、このブログが会社アカウントから公開された日の夜の弊社会長のFacebook投稿。
会長がマイクロソフト様に謝罪w

Pocket

Previous Post