Online learning — Follow the Regularized Leader

Follow the Regularized Leader (FTRL) 是解 Online Convex Optimization 問題非常常用的方法。以下將簡單介紹 Online Convex Optimization (OCO),並從 Follow the Leader 的角度解釋為什麼需要 Regularizer。

繼續閱讀 “Online learning — Follow the Regularized Leader"

Online Learning — Exponential Weighted Algorithm

在『Online learning — introduction』中的最後筆者有提到,環境、或是對手會有兩種常見的方式:一種是 Adversarial setting (作亂模式),一種是 Stochastic setting(隨機模式)。(p.s. 當然翻譯應該不是真的這樣翻,不過這樣應該會比較有助於直觀上的理解)。這篇文章中主要探討的是在 Adversarial setting 下,我們要如何聰明的設計演算法,以達到 O(\sqrt{T}) 的 regret。

繼續閱讀 “Online Learning — Exponential Weighted Algorithm"