TokyoNLP#5で「パーセプトロンで楽しい仲間がぽぽぽぽ〜ん」を発表しました

TokyoNLP#5に参加して「パーセプトロンで楽しい仲間がぽぽぽぽ〜ん」というタイトルで発表しました.発表資料 (検閲後) をuploadしました.

なお,2種類のAveraged Perceptronというものがあるというような発表をしてしまいましたが,実は両方とも実質同じアルゴリズムでした.片方はVoted Perceptronの近似 [Carvalho+ 06] という文脈.もう一方は構造学習を行うStructured Perceptron [Collins 02]の文脈で提案されています.その部分を修正しました.@uchumikさんのコメントで気が付きました.どうもありがとうございます.

音声付きで用意したネタ.どうやら徹夜明けの妙なテンションで作ってしまったのが災いし,会場との温度差に苦しむアウェー発表となった.懇親会で発覚したことだけれど,僕が思っていた以上にネタの内容が通じていないということを知ってショック.もっと一般ウケするネタじゃないとダメなのかなぁ.

最初の方で紹介したとおり,みんなご存じパーセプトロンというものをスタート地点として,比較的新しいオンライン学習まで一直線に紹介するというもの.僕が参加している勉強会ではベイジアンな方が多い印象だけれど,今日はマージン最大化学習という軸も紹介.Vapnik先生を紹介し,ちょっとだけ布教してみたけれど,全く反応がなかった.

ネタに走りすぎてしまったため,ちゃんと体系立てて伝えることができ鷹は少し心配.そして,内容としても岡野原さんの資料に完全に包含されているので,僕の発表によって「なんだ簡単じゃない.自分にもできるんだ」という気分になってもらったり,より高度な資料を読む前提知識を与えられたのであれば成功.ただ,これを願うばかり.

さて,今日は本当はカーネル法の話までしたかったのだけれど,キリもよかったし,長くなりすぎてもアレだなぁと思って前半戦で一旦終わり.

何度も同じようなアルゴリズムを眺めて「そうか,試行毎にサンプルに対して重みを付与しているんだ」ということがわかると一気にカーネル法への道が開ける.

パーセプトロンを始め,オンライン学習では主形式であろうと,双対形式であろうと与えられたサンプルに対する重み計算と追加をやっているに過ぎない.カーネル化や双対形式の導出などについては,日本語の資料が少ないということもあり,TokyoNLPに出禁になっていなければそのうち発表したいと思っている.

というわけで (発表者は) とても辛い発表だったけれど,質疑応答も盛り上がったし,参加者のみなさまのお役に立てば幸いです.

@shuyoさんの発表では,実は以前ちょっとコネクショニストぽい研究に携わっていたことがあり,昔勉強したことが出てきてとても懐かしくなった.それにしても@shuyoさんの勉強量はすごい.見習いたい.

宿題

質疑応答やその後の議論で出てきた内容をメモ.できれば後で調べて/勉強して後日フォローしたい.

  • Vowal Wabbitのウリを調べる
    • specialist gradient descent?
  • バイアスを重みに入れる場合にはどうするか?
    • 正則化項目計算の際に取り除いてあげるのが常套手段
    • それ以外は?
  • SGDの証明. Robbins-Monroアルゴリズム?
  • オンライン学習の定義とは? ストリーミング学習と何が違う
  • オンライン学習におけるサンプリング手法のように課題となる点
  • Voted Perceptronがマージン最大化する証明
  • VC理論をもう少しきちんと説明

余談

@shuyoさんの発表のときに言及した本はこれ.右左の代わりに東西南北という絶対方向で表現する民族とか,言語に興味なくても読み物として非常に面白かった記憶がある.読書記録を見たら2004.12.16となっている6.5年前! 時が経つのは早い...

もし「右」や「左」がなかったら―言語人類学への招待 (ドルフィン・ブックス)

もし「右」や「左」がなかったら―言語人類学への招待 (ドルフィン・ブックス)