あけましたおめでとうございます (✿╹◡╹)ノ
2017年は、今まで通っていた echo 6auY5bCCCg== | base64 -d
を卒業し、情報の大学に編入しました。編入1年目ということでなかなか他のことに手を出せないくらい忙しかったのは辛かったけれど、念願の CS 講義を受けられるようになりとても充実した1年だった気がします。
今学期履修している講義に「機械学習・パターン認識論」があります。先輩方からの評判も良く、自分自身興味があったこともあり、とても楽しいと感じている講義の1つです。とはいえ、やっぱり数式を眺めていても理解できる気がしないので、コードを書いてみることにしました。
環境
流行りの言語やライブラリはいくつかありますが、どうもモチベが出ないので Haskell でやりました。ちょうどこの記事を書き始めてすぐに LTS Haskell 10.x (ghc-8.2.2) が出たみたいですが、今回はこれで。
Arch Linux
Stack (Version 1.6.1)
LTS Haskell 9.18 (ghc-8.0.2)
Chart-1.8.2
hmatrix-0.18.0.0
hmatrix-gsl-0.18.0.1
random-1.1
雑なデータセットを作る
まずは乱数でデータセットを作り、それを Chart でプロットしてみます。
import Control.Monad ( replicateM )
import Graphics.Rendering.Chart.Backend.Cairo
import Graphics.Rendering.Chart.Easy
import System.Random
-- https://stackoverflow.com/a/13669958
instance ( Random x, Random y) => Random (x, y) where
randomR ((x1, y1), (x2, y2)) gen1 =
let (x, gen2) = randomR (x1, x2) gen1
(y, gen3) = randomR (y1, y2) gen2
in ((x, y), gen3)
random = undefined
main :: IO ()
main = do
c1 <- replicateM 50 $
getStdRandom $ randomR (( - 3.75 , 2.25 ), ( - 2.25 , 3.75 )) :: IO [( Double , Double )]
c2 <- replicateM 50 $
getStdRandom $ randomR (( - 1.75 , 1.25 ), ( - 0.25 , 2.75 )) :: IO [( Double , Double )]
let fo = def { _fo_size = ( 480 , 480 )
, _fo_format = SVG
}
toFile fo "dataset.svg" $ do
layout_x_axis . laxis_generate .= scaledAxis def ( - 4 , 4 )
layout_x_axis . laxis_title .= "x1"
layout_y_axis . laxis_generate .= scaledAxis def ( - 4 , 4 )
layout_y_axis . laxis_title .= "x2"
setShapes [ PointShapeCircle , PointShapeCircle ]
plot (points "C1" c1)
plot (points "C2" c2)
出力された dataset.svg
はこんな感じ。
この C 1 C_1 C 1 と C 2 C_2 C 2 を分類してみます。
最小二乗法でパラメータを求める
識別関数 y ( x ) y(\boldsymbol{x}) y ( x ) を次式で表すことにします。
y ( x ) = w ⊤ x + w 0 y(\boldsymbol{x}) = \boldsymbol{w}^\top \boldsymbol{x} + w_0 y ( x ) = w ⊤ x + w 0
ここで、x \boldsymbol{x} x は入力ベクトル
x = ( x 1 , … , x M ) ⊤ \boldsymbol{x} = (x_1, \dots, x_M)^\top x = ( x 1 , … , x M ) ⊤
w \boldsymbol{w} w はパラメータベクトル
w = ( w 1 , … , w M ) ⊤ \boldsymbol{w} = (w_1, \dots, w_M)^\top w = ( w 1 , … , w M ) ⊤
w 0 w_0 w 0 はバイアスパラメータです。
この識別関数が y ( x ) ≥ 0 y(\boldsymbol{x}) \ge 0 y ( x ) ≥ 0 となれば C 1 C_1 C 1 に、y ( x ) < 0 y(\boldsymbol{x}) \lt 0 y ( x ) < 0 となれば C 2 C_2 C 2 に属すとし、これを満たすような w \boldsymbol{w} w 、w 0 w_0 w 0 を求めます。
まず、簡単化のため y ( x ) y(\boldsymbol{x}) y ( x ) を次のように変形。
y ( x ) = w ~ ⊤ x ~ , w ~ = ( w 0 , w ⊤ ) ⊤ , x ~ = ( 1 , x ⊤ ) ⊤ y(\boldsymbol{x}) = \tilde{\boldsymbol{w}}^\top \tilde{\boldsymbol{x}},\quad\tilde{\boldsymbol{w}} = (w_0, \boldsymbol{w}^\top)^\top,\quad\tilde{\boldsymbol{x}} = (1, \boldsymbol{x}^\top)^\top y ( x ) = w ~ ⊤ x ~ , w ~ = ( w 0 , w ⊤ ) ⊤ , x ~ = ( 1 , x ⊤ ) ⊤
学習データ X ~ \tilde{\boldsymbol{X}} X ~ と、それに対応する目的 (教師) ベクトル t \boldsymbol{t} t を次のように定めると
X ~ = ( x ~ 1 , … , x ~ N ) ⊤ t = ( t 1 , … , t N ) ⊤ t n = { 1 , x ~ n ∈ C 1 − 1 , x ~ n ∈ C 2 \begin{aligned}
\tilde{\boldsymbol{X}} &= (\tilde{\boldsymbol{x}}_1, \dots, \tilde{\boldsymbol{x}}_N)^\top \\
\boldsymbol{t} &= (t_1, \dots, t_N)^\top \quad
t_n =
\begin{cases}
1, & \tilde{\boldsymbol{x}}_n \in C_1 \\
-1, & \tilde{\boldsymbol{x}}_n \in C_2
\end{cases}
\end{aligned} X ~ t = ( x ~ 1 , … , x ~ N ) ⊤ = ( t 1 , … , t N ) ⊤ t n = { 1 , − 1 , x ~ n ∈ C 1 x ~ n ∈ C 2
パラメータベクトル w ~ \tilde{\boldsymbol{w}} w ~ に関する2乗誤差関数 E D ( w ~ ) E_D (\tilde{\boldsymbol{w}}) E D ( w ~ ) は次のようになります。
y ( X ~ ) = ( y ( x ~ 1 ) ⋮ y ( x ~ N ) ) E D ( w ~ ) = 1 2 ( t − y ( X ~ ) ) ⊤ ( t − y ( X ~ ) ) = 1 2 ( t − X ~ w ~ ) ⊤ ( t − X ~ w ~ ) = 1 2 ( t ⊤ t − t ⊤ X ~ w ~ − w ~ ⊤ X ~ ⊤ t + w ~ ⊤ X ~ ⊤ X ~ w ~ ) \begin{aligned}
\boldsymbol{y}(\tilde{\boldsymbol{X}}) &=
\begin{pmatrix}
y(\tilde{\boldsymbol{x}}_1) \\
\vdots \\
y(\tilde{\boldsymbol{x}}_N)
\end{pmatrix} \\
E_D (\tilde{\boldsymbol{w}}) &= \frac{1}{2} (\boldsymbol{t} - \boldsymbol{y}(\tilde{\boldsymbol{X}}))^\top
(\boldsymbol{t} - \boldsymbol{y}(\tilde{\boldsymbol{X}})) \\
&= \frac{1}{2} (\boldsymbol{t} - \tilde{\boldsymbol{X}} \tilde{\boldsymbol{w}})^\top
(\boldsymbol{t} - \tilde{\boldsymbol{X}} \tilde{\boldsymbol{w}}) \\
&= \frac{1}{2} (\boldsymbol{t}^\top \boldsymbol{t} - \boldsymbol{t}^\top \tilde{\boldsymbol{X}} \tilde{\boldsymbol{w}}
- \tilde{\boldsymbol{w}}^\top \tilde{\boldsymbol{X}}^\top \boldsymbol{t}
+ \tilde{\boldsymbol{w}}^\top \tilde{\boldsymbol{X}}^\top \tilde{\boldsymbol{X}} \tilde{\boldsymbol{w}})
\end{aligned} y ( X ~ ) E D ( w ~ ) = y ( x ~ 1 ) ⋮ y ( x ~ N ) = 2 1 ( t − y ( X ~ ) ) ⊤ ( t − y ( X ~ )) = 2 1 ( t − X ~ w ~ ) ⊤ ( t − X ~ w ~ ) = 2 1 ( t ⊤ t − t ⊤ X ~ w ~ − w ~ ⊤ X ~ ⊤ t + w ~ ⊤ X ~ ⊤ X ~ w ~ )
この式が最小となる w ~ \tilde{\boldsymbol{w}} w ~ を求めるため w ~ \tilde{\boldsymbol{w}} w ~ で微分し
∂ E D ( w ~ ) ∂ w ~ = − X ~ ⊤ t + X ~ ⊤ X ~ w ~ \begin{aligned}
\frac{\partial E_D(\tilde{\boldsymbol{w}})}{\partial \tilde{\boldsymbol{w}}} &=
- \tilde{\boldsymbol{X}} ^ \top \boldsymbol{t} + \tilde{\boldsymbol{X}}^\top \tilde{\boldsymbol{X}} \tilde{\boldsymbol{w}}
\end{aligned} ∂ w ~ ∂ E D ( w ~ ) = − X ~ ⊤ t + X ~ ⊤ X ~ w ~
それを 0 0 0 とおくとこうなります。
X ~ ⊤ X ~ w ~ = X ~ ⊤ t w ~ = ( X ~ ⊤ X ~ ) − 1 X ~ ⊤ t w ~ = X ~ † t \begin{aligned}
\tilde{\boldsymbol{X}}^\top \tilde{\boldsymbol{X}} \tilde{\boldsymbol{w}} &= \tilde{\boldsymbol{X}} ^ \top \boldsymbol{t} \\
\tilde{\boldsymbol{w}} &= (\tilde{\boldsymbol{X}} ^ \top \tilde{\boldsymbol{X}}) ^ {-1} \tilde{\boldsymbol{X}} ^ \top \boldsymbol{t} \\
\tilde{\boldsymbol{w}} &= \tilde{\boldsymbol{X}}^\dagger \boldsymbol{t}
\end{aligned} X ~ ⊤ X ~ w ~ w ~ w ~ = X ~ ⊤ t = ( X ~ ⊤ X ~ ) − 1 X ~ ⊤ t = X ~ † t
これを実装すればパラメータベクトルが求まりそうです。
ということで、まずは c1
と c2
から学習データ行列 mx
と、それに対応する目的ベクトル mt
をこんな感じで hmatrix のベクトル・行列にしてやります。
let xs = c1 ++ c2
n = length xs
mx = (n >< 3 ) $ concatMap ( \ (x1, x2) -> [ 1.0 , x1, x2]) xs
mt = vector $ replicate (length c1) 1.0
++ replicate (length c2) ( - 1.0 )
パラメータベクトルは一般逆行列を求める hmatrix の関数 pinv
を使って次のようにも書けますが
let mw = pinv mx #> mt
最小二乗法を解く便利な (<\>)
演算子があったのでこれを使いました。
let mw = mx <\> mt
パラメータベクトルが求まったので、今度は識別境界を引いてみます。識別関数を y ( x ) = 0 y (\boldsymbol{x}) = 0 y ( x ) = 0 として式を変形するとこんな感じになるので
w ~ ⊤ x ~ = 0 w ~ 0 + w ~ 1 x ~ 1 + w ~ 2 x ~ 2 = 0 x ~ 2 = − w ~ 0 − w ~ 1 x ~ 1 w ~ 2 \begin{aligned}
\tilde{\boldsymbol{w}}^\top \tilde{\boldsymbol{x}} &= 0 \\
\tilde{w}_0 + \tilde{w}_1 \tilde{x}_1 + \tilde{w}_2 \tilde{x}_2 &= 0 \\
\tilde{x}_2 &= \frac{- \tilde{w}_0 - \tilde{w}_1 \tilde{x}_1}{\tilde{w}_2}
\end{aligned} w ~ ⊤ x ~ w ~ 0 + w ~ 1 x ~ 1 + w ~ 2 x ~ 2 x ~ 2 = 0 = 0 = w ~ 2 − w ~ 0 − w ~ 1 x ~ 1
次のようなコードで ( − 5 , y ( − 5 ) ) (-5, y(-5)) ( − 5 , y ( − 5 )) 、( 5 , y ( 5 ) ) (5, y(5)) ( 5 , y ( 5 )) となる2点を求め、それを結ぶ直線を描画しました。
let x1hat = [ - 5.0 , 5.0 ]
x2hat = map ( \ xi -> ( - (mw ! 0 ) - (mw ! 1 ) * xi) / (mw ! 2 )) x1hat
yhat = zip x1hat x2hat
-- ...
toFile fo "ls1.svg" $ do
layout_x_axis . laxis_generate .= scaledAxis def ( - 4 , 4 )
layout_x_axis . laxis_title .= "x1"
layout_y_axis . laxis_generate .= scaledAxis def ( - 4 , 4 )
layout_y_axis . laxis_title .= "x2"
setShapes [ PointShapeCircle , PointShapeCircle ]
plot (points "C1" c1)
plot (points "C2" c2)
plot (line "y" [yhat])
最終的なコードはこれ で、出力された ls1.svg
はこんな感じになりました。C 1 C_1 C 1 と C 2 C_2 C 2 の間に、それっぽく境界線が引けました。
ロジスティック回帰でパラメータを求める
データ点を生成している箇所をこんな感じに変更し、C 2 C_2 C 2 を ( − 1 , 2 ) (-1, 2) ( − 1 , 2 ) 付近のほかに ( 3 , − 3 ) (3, -3) ( 3 , − 3 ) 付近のデータを含むようにしてみます。
-- ...
main :: IO ()
main = do
c1 <- replicateM 50 $
getStdRandom $ randomR (( - 3.75 , 2.25 ), ( - 2.25 , 3.75 )) :: IO [( Double , Double )]
c21 <- replicateM 25 $
getStdRandom $ randomR (( - 1.75 , 1.25 ), ( - 0.25 , 2.75 )) :: IO [( Double , Double )]
c22 <- replicateM 25 $
getStdRandom $ randomR (( 2.25 , - 2.25 ), ( 3.75 , - 3.75 )) :: IO [( Double , Double )]
let c2 = c21 ++ c22
-- ...
すると、出力された画像はこんな感じになってしまいました。最小二乗法は与えた全てのデータに対しての誤差を最小にしようとするので、外れ値や他クラスのデータがあるとそれに影響されてしまうわけですね。
そこで、次に示すロジスティック関数 (シグモイド関数) σ ( a ) \sigma (a) σ ( a ) を使って、識別境界からの距離を確率的な距離 [ 0 , 1 ] [0, 1] [ 0 , 1 ] としてみます。
σ ( a ) = 1 1 + exp ( − a ) \sigma (a) = \frac{1}{1 + \exp(- a)} σ ( a ) = 1 + exp ( − a ) 1
ある入力データ x ~ \tilde{\boldsymbol{x}} x ~ が与えられたとき、それが C 1 C_1 C 1 に属する確率を p ( 1 ∣ x ~ ) p(1 | \tilde{\boldsymbol{x}}) p ( 1∣ x ~ ) 、そうでない確率を p ( 0 ∣ x ~ ) p(0 | \tilde{\boldsymbol{x}}) p ( 0∣ x ~ ) とし、次のように定めます。このように、ある線形関数 y y y をロジスティック関数で変形したモデルのことを一般化線形モデルと呼ぶらしいです。
p ( 1 ∣ x ~ ) = f ( x ~ ) = σ ( y ( x ~ ) ) = 1 1 + exp ( − y ( x ~ ) ) p ( 0 ∣ x ~ ) = 1 − p ( 1 ∣ x ~ ) \begin{aligned}
p(1 | \tilde{\boldsymbol{x}}) &= f (\tilde{\boldsymbol{x}}) = \sigma (y (\tilde{\boldsymbol{x}})) = \frac{1}{1 + \exp (- y (\tilde{\boldsymbol{x}}))} \\
p(0 | \tilde{\boldsymbol{x}}) &= 1 - p(1 | \tilde{\boldsymbol{x}})
\end{aligned} p ( 1∣ x ~ ) p ( 0∣ x ~ ) = f ( x ~ ) = σ ( y ( x ~ )) = 1 + exp ( − y ( x ~ )) 1 = 1 − p ( 1∣ x ~ )
では、学習データ X ~ \tilde{\boldsymbol{X}} X ~ 、目的ベクトル t \boldsymbol{t} t 、識別関数 y ( x ~ ) y (\tilde{\boldsymbol{x}}) y ( x ~ ) が次のように与えられたときのパラメータベクトル w ~ \tilde{\boldsymbol{w}} w ~ を求めていきます。
X ~ = ( x ~ 1 , … , x ~ N ) ⊤ t = ( t 1 , … , t N ) ⊤ t n = { 1 , x ~ n ∈ C 1 0 , x ~ n ∈ C 2 y ( x ~ ) = w ~ ⊤ x ~ \begin{aligned}
\tilde{\boldsymbol{X}} &= (\tilde{\boldsymbol{x}}_1, \dots, \tilde{\boldsymbol{x}}_N)^\top \\
\boldsymbol{t} &= (t_1, \dots, t_N)^\top \quad
t_n =
\begin{cases}
1, & \tilde{\boldsymbol{x}}_n \in C_1 \\
0, & \tilde{\boldsymbol{x}}_n \in C_2
\end{cases} \\
y (\tilde{\boldsymbol{x}}) &= \tilde{\boldsymbol{w}}^\top \tilde{\boldsymbol{x}}
\end{aligned} X ~ t y ( x ~ ) = ( x ~ 1 , … , x ~ N ) ⊤ = ( t 1 , … , t N ) ⊤ t n = { 1 , 0 , x ~ n ∈ C 1 x ~ n ∈ C 2 = w ~ ⊤ x ~
まず、先ほど示した確率の式は、次のようにも書けるので
p ( y ∣ x ~ ) = ( f ( x ~ ) ) y ( 1 − f ( x ~ ) ) 1 − y p(y | \tilde{\boldsymbol{x}}) = (f (\tilde{\boldsymbol{x}}))^y (1 - f(\tilde{\boldsymbol{x}}))^{1 - y} p ( y ∣ x ~ ) = ( f ( x ~ ) ) y ( 1 − f ( x ~ ) ) 1 − y
尤度関数 L ( w ~ ) L (\tilde{\boldsymbol{w}}) L ( w ~ ) と対数尤度 log L ( w ~ ) \log L (\tilde{\boldsymbol{w}}) log L ( w ~ ) を次のように表すことができます。
L ( w ~ ) = ∏ i = 1 N p ( t i ∣ x ~ i ) = ∏ i = 1 N ( f ( x ~ i ) ) t i ( 1 − f ( x ~ i ) ) 1 − t i log L ( w ~ ) = ∑ i = 1 N t i log f ( x ~ i ) + ( 1 − t i ) log ( 1 − f ( x ~ i ) ) \begin{aligned}
L (\tilde{\boldsymbol{w}}) &= \prod_{i = 1}^{N} p (t_i | \tilde{\boldsymbol{x}}_i) \\
&= \prod_{i = 1}^{N} (f (\tilde{\boldsymbol{x}}_i))^{t_i} (1 - f(\tilde{\boldsymbol{x}}_i))^{1 - t_i} \\
\log L (\tilde{\boldsymbol{w}}) &= \sum_{i = 1}^{N} t_i \log f (\tilde{\boldsymbol{x}}_i)
+ (1 - t_i) \log (1 - f(\tilde{\boldsymbol{x}}_i))
\end{aligned} L ( w ~ ) log L ( w ~ ) = i = 1 ∏ N p ( t i ∣ x ~ i ) = i = 1 ∏ N ( f ( x ~ i ) ) t i ( 1 − f ( x ~ i ) ) 1 − t i = i = 1 ∑ N t i log f ( x ~ i ) + ( 1 − t i ) log ( 1 − f ( x ~ i ))
この対数尤度が最大となるような w ~ \tilde{\boldsymbol{w}} w ~ を求めることができれば良さそうです。
ということで、まずは σ ( x ) \sigma (x) σ ( x ) を求める sigmoid
と、それをベクトル・行列に適用する sigmoid'
関数をこんな感じに実装しました。cmap
は、ベクトルや行列の全要素に任意の関数を適用できる関数です。
sigmoid :: Floating a => a -> a
sigmoid x = 1.0 / ( 1.0 + exp ( - x))
sigmoid' :: ( Container c e, Floating e) => c e -> c e
sigmoid' = cmap sigmoid
パラメータベクトルは最小二乗法では求められない?ようなので、hmatrix-gsl パッケージの minimizeVD
関数を使って最急降下法で近似的に求めることにしました。
今回は最大化をしたいので、最小化したい関数には対数尤度に − 1 - 1 − 1 を掛けたものを
l l ( w ~ ) = − log L ( w ~ ) = − ∑ i = 1 N t i log f ( x ~ i ) + ( 1 − t i ) log ( 1 − f ( x ~ i ) ) = − t ⊤ log f ( X ~ ) − ( 1 − t ) ⊤ log ( 1 − f ( X ~ ) ) \begin{aligned}
ll (\tilde{\boldsymbol{w}}) &= - \log L (\tilde{\boldsymbol{w}}) \\
&= - \sum_{i = 1}^{N} t_i \log f (\tilde{\boldsymbol{x}}_i)
+ (1 - t_i) \log (1 - f(\tilde{\boldsymbol{x}}_i)) \\
&= - \boldsymbol{t}^\top \log \boldsymbol{f} (\tilde{\boldsymbol{X}})
- (\boldsymbol{1} - \boldsymbol{t}) ^ \top \log (\boldsymbol{1} - \boldsymbol{f} (\tilde{\boldsymbol{X}}))
\end{aligned} ll ( w ~ ) = − log L ( w ~ ) = − i = 1 ∑ N t i log f ( x ~ i ) + ( 1 − t i ) log ( 1 − f ( x ~ i )) = − t ⊤ log f ( X ~ ) − ( 1 − t ) ⊤ log ( 1 − f ( X ~ ))
勾配は、σ ′ ( a ) = σ ( a ) ( 1 − σ ( a ) ) \sigma' (a) = \sigma (a) (1 - \sigma (a)) σ ′ ( a ) = σ ( a ) ( 1 − σ ( a )) を用いて
∂ l l ( w ~ ) ∂ w ~ = − ∑ i = 1 N ( t i f ( x i ) − 1 − t i 1 − f ( x i ) ) f ( x i ) ( 1 − f ( x i ) ) ∂ ∂ w ~ i w ~ i x ~ i = − ∑ i = 1 N ( t i ( 1 − f ( x i ) ) − ( 1 − t i ) f ( x i ) ) x i = − ∑ i = 1 N ( t i − f ( x i ) ) x i = X ~ ⊤ ( f ( X ~ ) − t ) \begin{aligned}
\frac{\partial ll (\tilde{\boldsymbol{w}})}{\partial \tilde{\boldsymbol{w}}} &=
- \sum_{i = 1}^{N} \Big(\frac{t_i}{f (x_i)} - \frac{1 - t_i}{1 - f (x_i)} \Big)
f (x_i) (1 - f (x_i)) \frac{\partial}{\partial \tilde{w}_i} \tilde{w}_i \tilde{x}_i \\
&= - \sum_{i = 1}^{N} (t_i (1 - f (x_i)) - (1 - t_i) f (x_i)) x_i \\
&= - \sum_{i = 1}^{N} (t_i - f (x_i)) x_i \\
&= \tilde{\boldsymbol{X}}^\top (\boldsymbol{f} (\tilde{\boldsymbol{X}}) - \boldsymbol{t})
\end{aligned} ∂ w ~ ∂ ll ( w ~ ) = − i = 1 ∑ N ( f ( x i ) t i − 1 − f ( x i ) 1 − t i ) f ( x i ) ( 1 − f ( x i )) ∂ w ~ i ∂ w ~ i x ~ i = − i = 1 ∑ N ( t i ( 1 − f ( x i )) − ( 1 − t i ) f ( x i )) x i = − i = 1 ∑ N ( t i − f ( x i )) x i = X ~ ⊤ ( f ( X ~ ) − t )
求めた2つの関数と適当なパラメータをこんな感じで渡してやります。
let f x w = sigmoid' (x #> w)
ll x y w = - y <.> log (f x w) - ( 1 - y) <.> log ( 1 - f x w)
dll x y w = tr x #> (f x w - y)
(mw, p) = minimizeVD SteepestDescent 10e-3 3000 10e-4 10e-4
(ll mx mt)
(dll mx mt)
(vector [ 1 , 1 , 1 ])
最終的なコードはこれ で、出力された logistic.svg
はこんな感じになりました。最小二乗法のときに発生した境界線の傾きはなく、いい感じに線が引けました。
まとめ
Haskell で、2次元の線形分類器を最小二乗法、ロジスティック回帰の2手法で実装してみました。コードの実装とブログ記事にまとめる作業を通して、特にロジスティック回帰にあったモヤモヤを解決できたのは良かったなという感じです。
最終的には MNIST みたいな有名なデータセットを分類してみたりしたかったのですが、時間がなさそうなので断念。他クラス分類、パーセプトロン、SVM 等も一度実装してみたいけど…
参考文献