stage3day1section2-3
Section2:活性化関数
確認テスト
答え
線形
直線で表現できる y= ax + b *2次元
平面で表現できる *3次元
非線形
直線で表現できない *2次元
平面で表現できない *3次元
活性化関数 層によって違う
中間層用の活性化関数 ・ReLU関数 ・シグモイド(ロジスティック)関数→勾配消失点問題あり ・ステップ関数
出力装用の活性化関数 ・ソフトマックス関数 ・恒等写像 ・シグモイド(ロジスティック)関数→勾配消失点問題あり
確認テスト
答え
z1 = functions.relu(u1)
Section3:出力層
出力層では、人間に分かる形での数値を出力する
クラス分けであれば、そのクラスである確率、など
訓練データ 動物のクラス分けであれば、人間が判断した正解データ
誤差関数 NNで出力したものと訓練データ(正解)との誤差
確認テスト
答え
・正の誤差と負の誤差が打ち消しあう可能性があり、訓練データとの差を正しく表現できない
なので正も負も、正解からの差の絶対値となるよう二乗している
・誤差関数の微分を用いる際の計算式を簡単にするため。
出力層での活性化関数
→分類問題の場合、0-1の範囲に限定され、総和は1となる
回帰に用いる出力層の種類
・活性化関数→ 恒等写像
・誤差関数→二乗誤差
二値分類に用いる出力層の種類
・活性化関数→シグモイド関数
・誤差関数→交差エントロピー
多クラス分類に用いる出力層の種類
・活性化関数→ソフトマックス関数
・誤差関数→交差エントロピー
確認テスト
答え
①はソフトマックス関数を通した後の出力
②/③はそのクラスに属する確率
確認テスト
答え
①誤差関数にクロスエントロピーを指定
②クロスエントロピー誤差を計算
実装演習
誤差関数は解く問題によって使うものが決まっている。
分類問題ではクロスエントロピー誤差を使うことがおおいが今回は平均二乗和誤差を利用