-
Notifications
You must be signed in to change notification settings - Fork 0
Expand file tree
/
Copy pathboosting.tex
More file actions
26 lines (18 loc) · 1.3 KB
/
boosting.tex
File metadata and controls
26 lines (18 loc) · 1.3 KB
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
\chapter{提升方法Boosting}
\section{Forward Stagewise Additive Modeling}
我们可以将Additive Modeling理解成为一组基函数${b(\bm{x};\gamma_m)}$的线性组合 (basis function expansion):
\begin{equation}
f(\bm{x})=\sum_{m=1}^{M}{\beta_m b(\bm{x};\gamma_m)}
\end{equation}
其中,$\beta_m \in \mathcal{R}$是线性组合的系数,$\left\{b(\bm{x};\gamma_m)\right\}$为hypothesis space中的基函数,$\gamma_m$为刻画基函数的参数。这里,线性组合$f(x)$可以用于回归任务,亦可通过拟合logits来用于分类任务(后面将结合具体的例子理解)。
基于上述的Additive Modeling的形式,机器学习的优化目标为:
\begin{equation}
\min_{\left\{\beta_m, \gamma_m\right\}_1^M} \sum_{i=1}^{N}{L\left(y_i, \sum_{m=1}^{M}{\beta_m b(\bm{x}_i; \gamma_m)}\right)}
\end{equation}
但是遗憾的是该问题是NP-Hard问题,我们很难直接针对该additive model进行优化。这里就引入了Forward Stagewise的概念,即假设当前已拟合的函数为$f_{m-1}(\bm{x})$,那么我们通过优化
\begin{equation}
\min_{\left\{\beta, \gamma\right\}} \sum_{i=1}^{N}{L\left(y_i, f_{m-1}(\bm{x}_i) + \beta b(\bm{x}_i; \gamma)\right)}
\end{equation}
来进一步提升模型的performance。
\section{Gradient Boosting}
\section{XGBoost}