علیرضا اخوان پور

22
ور پ وان خ ا ا رض لی عVISnet _ Network & topology Visnet

Upload: jelani-norman

Post on 03-Jan-2016

92 views

Category:

Documents


7 download

DESCRIPTION

علیرضا اخوان پور. Visnet. VISnet _ Network & topology. Feed-forward Hierarchical Model. four-layer feed forward network A series of hierarchical competitive networks with local graded inhibition - PowerPoint PPT Presentation

TRANSCRIPT

Page 1: علیرضا اخوان پور

علیرضا اخوان پور

VISnet _ Network & topology

Visnet

Page 2: علیرضا اخوان پور

Feed-forward Hierarchical Model four-layer feed forward network A series of hierarchical competitive networks

with local graded inhibition Convergent connections to each neuron from a

topologically corresponding region of the preceding layer

Synaptic plasticity based on a modified Hebbian learning rule with a temporal trace of each cell’s previous activity

V2-> V4->posterior inferior temporal -> anterior inferior temporal

Page 3: علیرضا اخوان پور

Architecture ،یک تابع توزیع گاوسیبین هر الیه ی مدل

شبکه تعیین احتمال اتصاالت برای

67% اتصاالت از داخل این دایره

افزایش شعاع همگرایی با باال رفتن در سلسله مراتب

128*128اندازه ی فضای ورودی

32*32سایز الیه های مدل

Page 4: علیرضا اخوان پور

Inputپیش پردازش داده ها• از الیه های جداگانه1ورودی ها به الیه ی •V1استخراج خط و لبه « شبیه سازی •

فضایی فرکانس

گیری جهت

عالمت

Page 5: علیرضا اخوان پور

•θ : 4 درجه135 درجه و 90 درجه، 45 درجه، 0 جهت

:فاصله از مرکز Y و Xاندیس های •

13x13سایز فیلترها: •

• )f(سیکل بر 0.5 و 0.25، 0.125، 0.0625 : فرکانس فضایی پیکسل

تصاویر ورودی با فیلترهای مختلف کانوالو می شود. می باشد، در نتیجه تنها پاسخ های مثبت در 0آستانه ی خروجی فیلتر

.نظر گرفته می شوند

Page 6: علیرضا اخوان پور

Input to layer 1انتخاب تصادفیبه صورت محلی بر اساس توپولوژیک سازگار

از فیلترهای موجود در الیه ی ورودی، دریافت کردند.

: با این محدودیت کهنمونه از تمام فیلترهای فرکانس فضایی هر سلول

( را 272برداری کرده و تعداد ثابتی از ورودی ها)برای مثال دریافت نماید.

فرکانس 0.0625 0.125 0.25 0.5

تعداد اتصاالت 8 13 50 201

Page 7: علیرضا اخوان پور

Input to layer 1: فیلترهای ورودی ویزنت•

فیلتر گاوسی جهت شناسایی خط جهت 4 و فرکانس فضایی 4هر مربع نمایانگر :•

تصویر شبکیه که بعد اعمال کردن فیلترهای مناسب به شبکه ارائه شده است.

دایره ها نمایانگر :•1 سازگار برای فراهم کردن ورودی به الیه ی retinotopicمختصات

Page 8: علیرضا اخوان پور

connectionالیه ی اول ورودی های خودش را به طوری استخراج می نماید که توزیع •

اطالعات الیه متعادل و برابر باشد.

هر نورون در الیه ی ورودی مرکزی برای شعاع مورد نظر است. •

بر طبق نقطه ی مرکز ارتباطات به صورت تصادفی و با استفاده از •احتمال یکنواخت اتصال ایجاد می شود.

اتصاالت در تمام فرکانس ها و جهت گیری ها ساخته شده و باید از هر کدام •از فرکانس های فضایی نمونه هایی گرفته شود.

به هر اتصالی یک وزن نسبت داده می شود• - در طول آموزش تغییر می کند

شود1 - به طوری نرمال می شوند تا جمع مربعات آن ها برابر با

Page 9: علیرضا اخوان پور

local graded inhibition

رقابت درجه بندی شده winner-take-allدر هر الیه، به جای •وجود دارد

o توسط طرحی شبیه مهار جانبی

برای تنوع بخشیدن به اطالعات بین همه ورودی ها •o نواحی مختلف الیه برای محرک های متفاوتی آتش خواهند کردoاطالعات بین تمام نورون های شبکه توزیع میگردد

استفاده از یک فیلتر فضایی •o شامل یک مرکز مثبت احاطه شده توسط مقادیر منفیoمحاسبه شده است کانوالو می شود � این فیلتر با الیه ی فعلی با نرخ فعالیتی که قبالoفیلتر به نوعی راه اندازی شده که متوسط مقادیر نرخ فعال سازی تغییر نمی کندo نصف شعاع همگرایی � سایز فیلترها با باالرفتن در سلسله مراتب افزایش می یابد ؛ تقریبا

است.

Page 10: علیرضا اخوان پور

فیلتر مهار جانبی و 2.7، 1.5و 1.38 به ترتیب 4 تا 1 مهار جانبی برای الیه ی δ و σجفت پارامترهای •

می باشد. 1.4 و 6، و 1.6 و 4.0، 1.5 (σ تضاد و δ) عرض

مهار جانبی با کانوالو نمودن فعالیت های نورون های روی یک الیه با فیلتر فضاییI.حاصل می شود

ام، از لحاظ تئوری هر نورون یا خوشه ای از نورون ها به ازای 4در الیه ی-ورودی های متفاوتی که به شبکه داده می شود رفتار متفاوتی را باید داشته باشد.

محرک های ورودی به طور مساوی بین نورون های هرالیه تقسیم و بازنماییشوند.

Page 11: علیرضا اخوان پور
Page 12: علیرضا اخوان پور

contrast enhancement

پس از اعمال فیلتر مهار جانبی، • contrastتابع افزایش تضاد )اعمال

enhancement ) 1 و 0 تغییر مقیاس مقادیر به بین

:r فعال سازی)نرخ آتش( بعد مهار جانبی : yنرخ آتش بعد افزایش تضاد

:α( تعیین اینکه چند درصد از سلول های عصبی باید آتش کنند! آستانه ی تابع): β شیب activation

s p a r s e n e s s

Page 13: علیرضا اخوان پور

4الیه 3الیه 2الیه 1الیه

91 88 98 99.2 α

26 75 40 190 β

Page 14: علیرضا اخوان پور

نرمال سازی وزن ها

جلوگیری از اینکه همیشه دسته ای از نرون های ثابت در رقابت پیروز شوند

:نرمال سازی بردار ضرائب

Page 15: علیرضا اخوان پور

آموزش شبکهآموزش شبکه به صورت الیه به الیه •به ترتیب:•

پایین ترین الیه برای تعداد ایپاک های تعریف شده1.

برای تعداد ایپاک های تعریف شده2الیه 2.

برای تعداد ایپاک های تعریف شده3الیه 3.

برای تعداد ایپاک های تعریف شده4الیه 4.

تا زمانی که الیه ی زیرین هنوز تغییر می کند آموزش الیه های باالتر هیچ .مفهومی ندارد

Page 16: علیرضا اخوان پور

آموزش شبکه، قانون یادگیری اثر

( :trace learning ruleقانون یادگیری اثر )• تغییر یافته ی قانون هبتاثیر ورودی های قبلی به محاسبات فعلی

• � ثانی�ه نگ�اه 0.5وق�تی م�ا ب�ه چ�یزی ب�رای م�دت بس�یار کوت�اه مثالمی ک�نیم، بس�یار محتمل ت�ر اس�ت ک�ه م�ا در ی�ک چ�ارچوب زم�انی � از زاویه ای دیگ�ر، ت�ا ب�از هم ب�ه هم�ان جس�م نگ�اه ک�نیم، احتم�االاین ک�ه ب�ه ص�ورت م�داوم ورودی ه�ای متف�اوتی ب�ه م�ا نش�ان داده

شود.

Page 17: علیرضا اخوان پور

The original trace learning rule

xj is the jth input to the neuron y is the output from the neuron ȳt is the trace value of the output of the neuron at time step

t α is the learning rate wj is the synaptic weight between jth input and the neuron η is the trace value ) (

Page 18: علیرضا اخوان پور

Evidenceهای زیستی

Page 19: علیرضا اخوان پور
Page 20: علیرضا اخوان پور

معیارهای اندازه گیری

Fisher’s unit)عامل تفکیک(information theory

معیار اطالعات تک سلولیمعیاز اطالعات چند سلولی

یک نرون تا چه اندازه بین محرک ها تمایز قائل می شودتا چه اندازه بین مکان های مختلف تمایز قائل می شود

Page 21: علیرضا اخوان پور
Page 22: علیرضا اخوان پور