PRML復々習レーン#11に参加して発表してきました

前回から1.5ヵ月空いてPRML復々習レーン#11に参加してきました.日程調整と会場調整を行ってくださった @Prunus1350 さんと会場提供していただいたニフティ株式会社様に改めて感謝申し上げます.発表者,参加者のみなさまおつかれさまでした&ありがとうございました.

本日は遅刻厳禁にもかかわらず移動時間を甘く見積もっていたため汗だくになりながら新宿駅から走る.暑い.そんなわけで (どんなわけ?) 前回までのあらすじは6章最後の部分を準備できず.そのうちこっそり差し替え予定.

さて前回話すことができなかった計算論的学習理論についてずっと前から自分用に作っていたノートを使って紹介.ここらへんの話をこのくらいのゆるふわで説明している資料を見かけたことないので,自分としてはなかなか頑張ったと思うのだけれど,ガチの人たちの目に触れたら殺されるんじゃないかと思って公開するのはかなり気がひけるのはココだけの秘密.(まぁそんなこと言ったら今まで何十回殺されているのだか)

ざっと完全学習->PAC学習->PAC学習の無限集合への拡張 (VC次元の導入) という流れを伝える内容にしたつもり.最後はVC次元の代わりにマージンサイズとデータ包含超球によって汎化誤差が抑えられるからマージン最大化のうれしさがここにあるよという話.

実用上のうれしさがわかりづらいから参加者には少し辛い時間帯だったかと思われる.が,それよりも通じると思った "ALL YOUR BASE ARE BLONG TO US" ネタが通じなかったのでショック.

さてその後は満を持して関連ベクトルマシン (RVM) が登場.「RVMって他の教科書で見かけたことないですよね…?」というつっこみがあったり,RVMバッシングがあったが無事に終了.

8章に入り,グラフィカルモデルな世界へ.検証もなしに同時分布を条件付き確率に分解するのはいかがなものか,というツッコミが入り,議論が盛り上がったが「手法がうまくいかなかったときに何が悪かったのかわかりづらい (i.e., 推論がうまくいかなかったのかand/or前提のグラフィカルモデルが悪いのか切り分けしづらい) 」という点では大いに納得.とにかく良かったとき,悪かったときにどこが原因なのかということが正確にフィードバックできるような方法が望ましいと思う.

今回は8.1.4までで終了.次回は条件付き独立から始まる.ちょっと先に添え字地獄が待っている気がするけれどさすがに3週目なら大丈夫だろう.きっと….

最後に時間が少し余ったので前回の補足資料と実践SVMガイドを紹介.今まで外部で喋って記憶がないのだけれど@Prunusさんに一度聞いたことがあると言われ,ごはんを食べたことを忘れたおじいちゃんになってしまったのか,と少しぞっとした.結局喋ったんだけれどね.最近,とにかく物忘れが激しくて40歳になる頃には者を覚えられなくなってしまうのではないかと思っている.