Adaboost(決定木)
識別関数
\( \begin{align} H(\boldsymbol{x}) &= \operatorname{sgn}\left(\sum_{t=1}^T \alpha_t h_t(\boldsymbol{x})\right) \end{align} \)
\( h_t: \boldsymbol{X} \rightarrow \{-1, +1\} \\ error_{t} = \sum_{i=1}^{N} w_t^{(i)}[y_{data}^{(i)} \neq h_t(x_{data}^{(i)})] \)
\( \begin{align} D &= \{\boldsymbol{x}_{data}^{(i)}, y_{data}^{(i)}\}_{i=1, \cdots, N} \\ W_t &= \{w_t^{(i)}|w_t^{(i)} \geq 0, \sum_{i = 1}^N w_t^{(i)} = 1\} \\ \boldsymbol{x} &= (x_1, x_2) \end{align} \)
評価
\( N_{error} = \sum_{i=1}^{N} 1[y_{data}^{(i)} \neq H(\boldsymbol{x}_{data}^{(i)})] \)
学習パラメータ設定
決定木の最大の深さ:
弱学習器の最大個数$T$:
学習
訓練データ設定
クリック時の訓練データラベル(Shiftキーでも切り替え可):
正例
負例
csvファイル(1列目:x座標, 2列目y座標, 3列目: クラス(正例:1/負例:-1), #:コメント行)からデータを読み込み
訓練データの生成
リセット
学習結果