Cold Start

データ分析の話とか

TokyoR #70 でLTをしました(発表内容の補足あり)

TokyoR の第70回でLT発表をさせていただきました.

Rのコードやスライドは以下となります. github.com

www.slideshare.net

後半のシミュレーション部分の説明が当日不足してしまったので,少し補足をします.

スライド後半部のシミュレーション部分の図ですが,基本はスライドの12枚目にあるように,四角形を縦横4等分したうちの左下が青色(つまり選択肢2)に,それ以外が赤色(つまり選択肢0)になっていれば与えられた2つのコンテクスト値の組み合わせに対して最善の選択を選べているのでバンディットが上手くいっていると言えます.

そこでTSとUCBを比較したバッチ学習を行った20枚の画像比較のスライドを見ると,TSの方はバッチ学習が10回目の段階前後で先ほど説明した理想の図になってるわけですが,UCBの方が20回目の段階でも選択肢1が残ってしまっているのでTSの方がよかったという結論になるわけですね.最後に載せた論文のシミュレーション画像のようにキレイな差は出なかったのですが,論文内にいくつかのパラメータの値が明記されてなかったのでそこの部分の差なのでしょうかね...?

また,今回のTokyoRベイズ回ですが他の方々の発表内容も大変面白く聴かせていただきました.運営様と発表者様は本当にお疲れ様でした,ありがとうございました!

(補足)元ネタの話

[1711.07077] Estimation Considerations in Contextual Bandits

ちなみに元ネタの論文についてなのですが,これもスライドに記載した通り元々は推定手法の提案の論文で,今回は3.1節のシミュレーションを再現したものです.構成としては1章がイントロ,2章で手法の提案,3章でシミュレーション,4章でConclusionという構成なのですが,今回のTokyoRで紹介しなかったですが,Mis-specified Model(スライドでは1次項と2次項をいれたWell-Specified Modelのみ扱いましたが,1次項しかいれていないケースをここで扱っています)やIPWによる補正の話を3.1.2節で扱っていたり,nuisance parameterなどが存在する時のLASSOとリッジ回帰を用いた場合の比較を3.2節で,Generalized Random Forestを用いたノンパラメトリックケースを3.3節で扱ったりしています.特にRの文脈だとGeneralized Random Forestはgrfパッケージが存在するので今後のTokyoRで3.3節の話もできたらいいかなとも思いますが,またバンディットで同じ論文から発表とかなると個人的に発表しててつまらないのでまたLTなどのネタを探していこうと思います...