stdp学習則によって得られるシナプス 強度分布の...
TRANSCRIPT
• STDP(Spike-timing dependent synaptic plasticity)による学習(Bi et.al.,1998)– シナプス可塑性を説明する生理学的な知見の一つ– LTP/LTD(長期増強/長期抑圧)の根拠と考えられる学習則
• 1000個程度のシナプス結合を持つ細胞を想定し、STDPによる学習を適用すると、特徴的なシナプス強度分布が得られる(Song et.al.,2000)– 数値実験により示された– スパイクの入力頻度に依存して異なるシナプス強度の分布が得られる
– 両極に分布→勝ち組シナプスと負け組シナプス
• 得られるシナプス強度分布はどのように決まるか– 競合の様にも見える– 仕組みとしては競合とは言えない
• STDP学習則によって得られるシナプス強度分布は偏微分方程式で記述できる(加藤ら,2001)– スパイクの入力頻度は確率として定義される– Song et.al.の数値実験の結果を解析的に説明できる
– 得られるシナプス強度分布は、スパイク頻度のみに依存するか?
• 生体における神経回路網の学習では– 学習は安定である– 学習結果には多様性がある
• 何に対して多様性があるのか→環境、内在するパラメータ• 入力頻度により得られるシナプス強度分布に変化が見られる(Song et.al,2000, etc)
• 学習を特徴付けるパラメータに着目して多様性を示す– パラメータ →
• シナプス強度の最大値• STDP学習則におけるシナプス強度の変化率
– シンプルスパイキングニューロンを用いて数値実験
STDP学習則の論点
• 従来の研究に於いて、– 学習環境の変化による獲得形質の変化
• スパイクの入力頻度– STDP学習則によって得られるシナプス強度分布の解析的な説明– STDPを誘導する仕組みの生化学的視点からの解明
• 課題– 学習パラメータの変化によるシナプス強度分布の多様性
• 膜コンダクタンスの最大値、変化率– 学習の経過に伴うシナプス強度分布の変化– STDP学習則による機能発現モデル– 学習の収束安定性– 学習自体の安定性、頑強性
• どこまで崩れてもSTDPと言えるか
• 数値実験、条件等– 入力層ニューロン1000個が1個のニューロンにシナプス結合を介して接続
– 一定の確率で入力層へスパイクが到着– Simple Spiking Neuron(SSN)を利用– 1000個のシナプス結合にSTDP学習則を適用
数値実験モデル模式図
• Simple Spiking Neuron(SSN)– E.M. Izhikevich, 2003‒ 生化学的意味付けを無視しているが、膜電位の振舞いを良く再現するモデルとして知られている
!
dv
dt= 0.04v
2 + 5v +140 " u " I
du
dt= a bv " u( )
if v > threshold, then v# c, u# u +d
• STDP学習則
!
gnew = gold + gm "F #t( )
!
F "t( ) =
A+ exp"t# +
$ % &
' ( ) if "t < 0
*A* exp *"t #*
$ % &
' ( ) if "t > 0
+
, -
. -
学習曲線
!
"t = t pre # tpost
更新側
数値実験結果
• 加法的更新則• A=0.05,初期値:最大コンダクタンスの半分,t=50000
gm=0.1 gm=0.16 gm=0.18 gm=0.2
!
gnew = gold + gm "F #t( )
膜コンダクタンスの最大値により得られる分布が異なるgmを大きくしていくと全てのシナプス強度が最大値近辺に集中する
• 加法的更新則• A=0.05,初期値:一様,t=50000
gm=0.1 gm=0.12 gm=0.18 gm=0.22
!
gnew = gold + gm "F #t( )
初期値の与え方とは関係無く、シナプス強度分布は様々なパターンを示す
加法的更新則, A=0.05,任意の10個のシナプスを抽出,t<4000上段:初期値最大値の半分下段:初期値一様
STDP学習則によるシナプス強度の変化のようす
gm=0.2 gm=0.18 gm=0.16
gm=0.22 gm=0.18 gm=0.12
• 乗法的更新側• A=0.05,初期値:最大コンダクタンスの半分,t=50000
gm=0.1 gm=0.16 gm=0.2 gm=0.22
ガウス分布の様な分布しか得られないと言われていたがgmの値によっては他の分布も得られることが分かる
!
gnew = gold F "t( ) +1( )
• 総当たりで計算した結果→表– 連続的な変化と突然の変化
• パラメータとして膜コンダクタンスの最大値、STDP学習則の更新率を変化させることにより、いくつかのシナプス強度分布が得られる
• 学習の進行に伴って、どのようにシナプス強度分布が得られているのか?
乗法的更新,A=0.1,gm=0.2,t<2000,任意の10個のシナプスを抽出左:初期値一様右:初期値最大値の半分
全体的に最大値の方向へ更新された後抑圧が始まる →Post-synaptic cellの発火率が影響している?
• 学習が進行する間のシナプス強度分布の変遷に着目• 最大値付近に多く分布するパターンから最小値付近に多く分布するパターンへ変遷する– 直接学習則とは関係の無い膜コンダクタンスの最大値が、分布に影響を及ぼす理由の一つと考えられる
• ただし、大まかな分布への収束は見られるが厳密に収束しているわけではない
シナプス強度の収束の様子任意の10個のシナプスを抽出,t<10000000
加法的更新則,A=0.1,gm=0.2,初期値一様(左)0.1(右)
乗法的更新則,A=0.1,gm=0.2,初期値一様(左)0.1(右)
ほぼ値が動かない状態に達する場合も多いが、図のように厳密には収束していないケースもある
まとめ
• SSNを用いた数値実験の妥当性を示した• STDPにより獲得されるシナプス強度分布の多様性を示した– 加法的更新、乗法的更新の双方に於いて多様性が観測される– ある種のパラメータに依存して得られる形質が変化することを示した
• 膜コンダクタンスの変化率• 膜コンダクタンスの最大値
– 大きくなる程。。。• 分布が極端に偏る明確な閾値が存在する
– Post-synaptic cellの発火頻度が影響?
まとめ
• 学習の進行に伴うシナプス強度分布の変化を示した。– 特定の条件下では特徴的な変化が見られる
– 厳密には収束しない• →解析的に分布を求めることは困難か?
• 課題– Post-synaptic cellの発火率とシナプス強度分布の関係– 曲線による変化率近似の妥当性– STDP学習によって得られる神経回路の機能的意義