ニューラルネットワークとは?基本原理と活性化関数、単純パーセプトロンについて徹底解説

ニューラルネットワークとは?基本原理と活性化関数、単純パーセプトロンについてまとめました。

ニューラルネットワークとは

脳内には、ニューロン(神経細胞)が無数にあります。ニューロン同士はシナプスで繋がっています。
入力される電気信号の電位がある閾値を超えると発火し、シナプスによって次のニューロンに電気信号を出力します。
この動作を各ニューロンへ繰り返ししていくことで、脳は電気信号(情報)を伝達します。
ニューラルネットワークでは、この「脳が電気信号(情報)を伝達する仕組み」を表現することを目指した数学モデルです。

モデル図

■ニューロン(左)、数学モデル(右)

ニューロンモデルでは、細胞体を「ノード」、軸索を「エッジ」、シナプスを「活性化関数」で表現します。

ニューロン 数学モデル 役割
入力信号 x_1, x_2, x_3 入力値
出力信号 y 出力値
軸索 エッジ 入出力端子
樹状突起 結合荷重w_1, w_2, w_3 シナプスそれぞれがもつ信号の伝達効率
細胞体 ノード(活性化関数h) ①入力の重み付き和を計算
②計算結果が閾値を超えたら「1」、そうでなければ「0」を出力

重み付き総和

入力の重み付き総和xは以下の式で計算します。

(1)   \begin{eqnarray*} x = x_1w_1 + x_2w_2 + x_nw_n = \sum_{i=1}^n x_iw_i \end{eqnarray*}

活性化関数

活性化関数では、重み付き和xがある閾値を超えていれば「1」、そうでなければ「0」を出力するように設計します。
これは、電気信号がある電位を超えた時に急激に発火するニューロンの特性を表現したものです。
活性化関数としてよく利用される関数は次の通りです。

関数名 関数
ステップ関数
(ヘビサイド関数、階段関数)
f(x)=\begin{cases}1 & ( x \geq 0 ) \\0 & ( x < 0 )\end{cases}
シグモイド関数 f(x)=\frac{1}{1+e^{-x}}
線形ランプ関数 f(x)=x_+=max(0, x)

Tはある閾値です。

■左からステップ関数、シグモイド関数、ランプ関数

単純パーセプトロン


単純パーセプロトンとは、0番目の入力x_0を1、重みw_0を閾値とした場合のニューロンモデルのことです。
活性化関数にステップ関数f(x)を用いて、パーセプロトンの出力yを表すと次のようになります。

(2)   \begin{eqnarray*} y=f(\sum_{i=1}^n x_iw_i - \theta) \end{eqnarray*}

(3)   \begin{eqnarray*} y=f(\sum_{i=0}^n x_iw_i) \end{eqnarray*}

(3)式はi=0のときの入力x_0=1、 重みw_0=-\thetaと、閾値を和の形で表現しています。
単純パーセプトロンは、ニューラルネットワークの基本単位となる重要な物です。
重みと閾値を変化させることで、例えば「明日の天気予測」「顧客に最適な商品予測」などの様々なモデルを作成できます。

補足
\thetaの意味 w_0=-\thetaは入力x_1, x_2, x_3と結びついていないバイアスと呼ばれる値です。式(2)を見ても分かる通り、バイアスを加えることは、重みを一つ追加するのと同じです。重みが加わることで、結果として重み付き総和xの値は\theta分だけ上下することになり、偏らせることができます。
\thetaの機能 実際のニューロンでは、入力信号の電位がある閾値を超えたときに、発火して信号を出力します。バイアス\thetaはその閾値を変化させる機能を持ちます。活性化関数(ステップ関数)の閾値は0ですが、\thetaが0.5の場合は、閾値を-0.5に変化させることができます。

単純パーセプトロンの学習①勾配降下法

単純パーセプトロンでは、教師データを与えて勾配降下法(最急降下法)により、重みを決定します。
次のような誤差関数Eが最小となるように繰り返し計算を行います。

数式 説明
誤差関数(損失関数) E = \max (0, -twx)
\max (x, y) x, yのうち大きい方の値を出力する関数です。Eの場合、誤差がない場合は0、ある場合は-twxを返します。
重み w = [w_0, w_1, w_2, w_3]
教師データ x = [x_0, x_1, x_2, x_3]
教師データの
正解ラベル
t = [t_0, t_1, t_2, t_3]
※正解ラベルtの値は、正解なら1, 誤りなら-1

重みの更新式

誤差関数Eが大きいほど出力値に誤りが多いことを表します。
よって、これが最小になるように重みwを少しずつ動かして更新していきます。
更新の計算式は次のようになります。

(4)   \begin{eqnarray*} w = w - \epsilon \frac{dE}{dw} = w - \epsilon \frac{d}{dw}(-twx) = w + \epsilon tx \end{eqnarray*}

パラメータ 説明
学習率:\epsilon ずらす量(1より小さな値を設定。小さすぎると計算回数が増大)
Eの勾配:\frac{dE}{dw} 勾配値が正なら、負の方向に最小値があるので、そこへ動かすために-\epsilonを掛けます。

注意

この誤差関数Eを用いる場合、正解ラベルが(1, -1)なので活性化関数(ステップ関数)も次のように定義します。

(5)   \begin{eqnarray*} f(x)=\begin{cases}1 & ( x \geq 0 ) \\ -1 & ( x < 0 ) \end{cases} \end{eqnarray*}

説明
1 初期パラメータ(学習率とエポック最大数)を設定します。
2 教師データxと正解ラベルtのセットを用意します。
3 重みwの初期値を適当に決めます。
4 教師データxを単純パーセプトロンに入力します。
5 出力yと正解ラベルtを比較し、一致しなければ最急降下法で重みを更新します。
6 手順3~5をエポック最大数分だけ繰り返します。

Pythonによる実装例

429 Too Many Requests

関連記事

【ニューラルネット】多層パーセプトロン(MLP)の原理・計算式
ニューラルネットワーク(多層パーセプトロン・MLP)や特徴や原理、その計算方法についてまとめました。 多層パーセプトロン(MLP)とは 多層パーセプトロン(MLP)とは、下図のように(単純)パーセプトロンを複数繋いで多層構造にしたニューラル...
404 NOT FOUND | アルゴリズム速報

コメント