Cold Start

データ分析の話とか

TokyoR #74 でLT発表させていただきました.

TokyoR 第74回でLT発表をさせていただきました.
スライドは以下のリンクです.

 

 

www.slideshare.net

 

自分の修論の内容がRDDだったのもあったり,部署が違うとはいえ所属会社での発表だったため割と気楽に発表できました.

今回もですが,運営様と発表者様は大変お疲れ様でした!

社内勉強会でLightGBMについて発表しました

タイトルの通り、社内勉強会でLightGBMについて発表しました.
新卒のうちからこういう機会を頂けるのはありがたいことだなと思っています.
発表時のスライドは以下.

www.slideshare.net

概要などについては全てスライドを見ていただければ幸いです.

TokyoR #71 でLT発表させていただきました.

TokyoR 第71回でLT発表をさせていただきました.(今回は英語縛り回だったのでスライドも英語です)
コードとスライドは以下の通りです.

 

www.slideshare.net

 

github.com

 

 発表中にも触れたのですが、今回使用したCriteoのデータセットははっきり言って高次元データとは言いがたいので実データパートに関してはかなりタイトル詐欺感はあります.シミュレーションでお茶を濁すのもアリかとは思ったのですがそれはそれで発表内容が味気なくなるかという懸念があったのと, 今回のCriteoのデータセットも紹介したいというモチベもあったのでこのような形になりました.(当然の事ながら懇親会では「あれどこが高次元データなの?」というご指摘も受けました. 本当に申し訳ないやらありがたいやら...) こういうLTなどでネタになるような良いデータセットを見つけてくるのは大変だなぁと毎回思うのですが、今回のCriteoのデータセットは処置効果について扱える超大規模データセットという事で非常に価値あるものだと思いますし、今後のTokyoRでこんな感じの因果推論の発表する人は使ってみてほしいなという気持ちがあります.

 

Hadley神が降臨という事で直前にリスケとなったりでしたが、運営の方たち本当にお疲れ様でした! また、発表者の方々も今回も本当に質の高い発表を聴かせていただいてありがとうございました!( 大人数の前で英語を喋るのはほぼ初めてだったのですが、なんとかなった(?)ようで安心しました.次回も発表の機会を頂けたら今度は軽めのネタでやりたいなと思ってます)

TokyoR #70 でLTをしました(発表内容の補足あり)

TokyoR の第70回でLT発表をさせていただきました.

Rのコードやスライドは以下となります. github.com

www.slideshare.net

後半のシミュレーション部分の説明が当日不足してしまったので,少し補足をします.

スライド後半部のシミュレーション部分の図ですが,基本はスライドの12枚目にあるように,四角形を縦横4等分したうちの左下が青色(つまり選択肢2)に,それ以外が赤色(つまり選択肢0)になっていれば与えられた2つのコンテクスト値の組み合わせに対して最善の選択を選べているのでバンディットが上手くいっていると言えます.

そこでTSとUCBを比較したバッチ学習を行った20枚の画像比較のスライドを見ると,TSの方はバッチ学習が10回目の段階前後で先ほど説明した理想の図になってるわけですが,UCBの方が20回目の段階でも選択肢1が残ってしまっているのでTSの方がよかったという結論になるわけですね.最後に載せた論文のシミュレーション画像のようにキレイな差は出なかったのですが,論文内にいくつかのパラメータの値が明記されてなかったのでそこの部分の差なのでしょうかね...?

また,今回のTokyoRベイズ回ですが他の方々の発表内容も大変面白く聴かせていただきました.運営様と発表者様は本当にお疲れ様でした,ありがとうございました!

(補足)元ネタの話

[1711.07077] Estimation Considerations in Contextual Bandits

ちなみに元ネタの論文についてなのですが,これもスライドに記載した通り元々は推定手法の提案の論文で,今回は3.1節のシミュレーションを再現したものです.構成としては1章がイントロ,2章で手法の提案,3章でシミュレーション,4章でConclusionという構成なのですが,今回のTokyoRで紹介しなかったですが,Mis-specified Model(スライドでは1次項と2次項をいれたWell-Specified Modelのみ扱いましたが,1次項しかいれていないケースをここで扱っています)やIPWによる補正の話を3.1.2節で扱っていたり,nuisance parameterなどが存在する時のLASSOとリッジ回帰を用いた場合の比較を3.2節で,Generalized Random Forestを用いたノンパラメトリックケースを3.3節で扱ったりしています.特にRの文脈だとGeneralized Random Forestはgrfパッケージが存在するので今後のTokyoRで3.3節の話もできたらいいかなとも思いますが,またバンディットで同じ論文から発表とかなると個人的に発表しててつまらないのでまたLTなどのネタを探していこうと思います...