Adaboost(決定木)


識別関数

\( \begin{align} H(\boldsymbol{x}) &= \operatorname{sgn}\left(\sum_{t=1}^T \alpha_t h_t(\boldsymbol{x})\right) \end{align} \)
\( h_t: \boldsymbol{X} \rightarrow \{-1, +1\} \\ error_{t} = \sum_{i=1}^{N} w_t^{(i)}[y_{data}^{(i)} \neq h_t(x_{data}^{(i)})] \)
\( \begin{align} D &= \{\boldsymbol{x}_{data}^{(i)}, y_{data}^{(i)}\}_{i=1, \cdots, N} \\ W_t &= \{w_t^{(i)}|w_t^{(i)} \geq 0, \sum_{i = 1}^N w_t^{(i)} = 1\} \\ \boldsymbol{x} &= (x_1, x_2) \end{align} \)

評価

\( N_{error} = \sum_{i=1}^{N} 1[y_{data}^{(i)} \neq H(\boldsymbol{x}_{data}^{(i)})] \)

学習パラメータ設定

決定木の最大の深さ:

弱学習器の最大個数$T$:


訓練データ設定

クリック時の訓練データラベル(Shiftキーでも切り替え可):
正例 負例

csvファイル(1列目:x座標, 2列目y座標, 3列目: クラス(正例:1/負例:-1), #:コメント行)からデータを読み込み



学習結果