sieci lvq learning vector quantization sieci cp ...home.agh.edu.pl/~asior/stud/doc/hopf_14.pdf ·...
TRANSCRIPT
SIECI REKURENCYJNE
Joanna Grabska- Chrząstowska
SIECI HOPFIELDA
Wykłady w dużej mierze przygotowane w oparciu o materiały i pomysły
PROF. RYSZARDA TADEUSIEWICZA
SPRZĘŻENIE ZWROTNE W NEURONIE LINIOWYM
y
x
sygnał wyjściowy
sygnał wejściowy
sygnał sprzężenia zwrotnego
y
10
sygnał wyjściowy
sygnał wejściowy
sygnał sprężenia zwrotnego
-1.2
y
sygnał wyjściowy
sygnał sprężenia zwrotnego
-1.2
Równowaga w sieci może być osiągnięta (bez
działającego sygnału wejściowego) jedynie w taki
sposób, że sygnał wyjściowy po przemnożeniu przez
wagę sprzężenia zwrotnego daje taki sam sygnał. Taki
sygnał nazywamy ATRAKTOREM. Położenie
atraktora jest związane z parametrami sieci. Dla
współczynnika wagowego sprzężenia zwrotnego o
wadze 1 każdy punkt jest atraktorem, natomiast dla
dowolnej sieci stan równowagi uzyskujemy tylko
wtedy, gdy sygnał wyjściowy ma wartość 0.
12.345
12.345
1
12.345
1
12.345
12.345
1
0
0
2
12.345
12.345
1
0
2
0
-1.4
10
0
-1.4
sygnał wyjściowy
-0,5
10
sygnał wyjściowy
-1
10
sygnał wyjściowy
-1
10
sygnał wyjściowy
-1
10
sygnał wyjściowy
-1
sygnał wyjściowy
-1
10
sygnał wyjściowy
0.1
sygnał wyjściowy
0.1
10
sygnał wyjściowy
0,1
90
WNIOSKI
Reguła Hebba
“Kiedy akson komórki A jest dostatecznie blisko by pobudzić komórkę B i wielokrotnie w sposób trwały bierze udział w jej pobudzaniu,
procesy wzrostu lub zmian metabolicznych zachodzą w obu komórkach tak, że sprawność neuronu A jako jednej z komórek
pobudzających B, wzrasta.”
D. O. Hebb,
1949
SIEĆ HOPFIELDA BUDOWA
y1 y2 yn-2 yn-1 yn
x1 x2 xn-2 xn-1 xn
TRZY WARUNKI STABILNOŚCI W SIECI HOPFIELDA
TRZY WARUNKI STABILNOŚCI W SIECI HOPFIELDA
SIEĆ HOPFIELDA
● Połączenia „każdy z każdym”
● Brak sprzężeń zwrotnych do samego siebie
● Symetryczna macierz wag
BUDOWA SIECI HOPFIELDA
BUDOWA SIECI
HOPFIELDA
)
POJĘCIE FUNKCJI ENERGETYCZNEJ
POJĘCIE FUNKCJI ENERGETYCZNEJ
Ze wzoru (1) wynika, że zmiana yi, o ile zachodzi, ma zawsze znak identyczny ze znakiem łącznego pobudzenia ei, więc iloczyn –ei Dyi jest zawsze nieujemny. Zmiana energii podczas aktualizacji wyjść jest zatem zawsze niedodatnia.
(1)
(2)
gdzie:
i, j = 1,...,N
s = 1, ..., M
N – liczba bitów w obrazie wzorcowym
M – liczba wektorów wzorcowych
tijs – waga połączenia wyjścia j-tego neuronu z wejściem i-tego
neuronu przy prezentacji s-tego obrazu wzorcowego.
jidla
M
s
sj
xsi
xN
jidla
sijt
1
1
0
Metoda Hebba
METODY WYKORZYSTUJĄCE JEDNOKROTNĄ
PREZENTACJĘ WZORCÓW
gdzie:
T – macierz połączeń wagowych o wymiarze NxN
I – macierz jednostkowa odpowiedniego wymiaru
X składa się z M wektorów bazowych zapisanych kolumnowo
X = [ X1, ..., XM]
Metoda Hebba
METODY WYKORZYSTUJĄCE JEDNOKROTNĄ
PREZENTACJĘ WZORCÓW
T = 1 /N (X XT – M I)
Metoda Hebba dla wzorców unipolarnych
METODY WYKORZYSTUJĄCE JEDNOKROTNĄ
PREZENTACJĘ WZORCÓW
jidla
M
s
sj
xsi
xN
jidla
sijt
)1
1
2()12(1
0
Na przykład: dla zbioru wzorców: X = { [1, 0,1, 1], [0, 0, 1, 1], [0, 1, 1, 0] macierz T = ¼ 0 -1 -1 1 -1 0 -1 -1 -1 -1 0 1 1 -1 1 0
gdzie:
i, j = 1,...,N
s = 1, ..., M
N – liczba bitów w obrazie wzorcowym
M – liczba wektorów wzorcowych
T – macierz połączeń wagowych o wymiarze NxN
tijs – waga połączenia wyjścia j-tego neuronu z wejściem i-tego
neuronu przy prezentacji s-tego obrazu wzorcowego.
jidlasjx
six
N
sijt
jidla
sdla
sijt
11
0
00
Metoda Hebba w wersji iteracyjnej
METODY WYKORZYSTUJĄCE JEDNOKROTNĄ
PREZENTACJĘ WZORCÓW
Metoda wzajemnych ograniczeń
METODY WYKORZYSTUJĄCE JEDNOKROTNĄ
PREZENTACJĘ WZORCÓW
W tej metodzie do podstawowej reguły Hebba dodaje się składnik „odpychający”:
jidla
jidlaxxxxt
M
s
M
sp
s
j
p
i
s
j
s
i
ij
0
1
gdzie > 0 jest ustalonym parametrem.
Reguła rzutowania D
METODY WYKORZYSTUJĄCE WIELOKROTNĄ
PREZENTACJĘ WZORCÓW
h jest stałą uczenia z zakresu [0.7, 0.9],
k – indeks prezentowanego wzorca.
TkX
kXt
kT
kX
Nt
kTt
kT
11
h
max,...,2,1 ttt
ma w iteracji t następującą postać:
z warunkiem początkowym T0(1)=0
Zmodyfikowana reguła perceptronu
METODY WYKORZYSTUJĄCE WIELOKROTNĄ
PREZENTACJĘ WZORCÓW
Wartości wag tij macierzy T po prezentacji wzorca Xk są następujące:
Metoda ta powstała na bazie metody uczenia perceptronu poszerzonej
o warunek symetrii wag opartej na wyliczaniu średniej z
odpowiadających sobie wag. Tak zdefiniowana reguła perceptronu ma
wiele wspólnych cech z zasadą Hebba ale różni się tym, że w procesie
uczenia dodano do niej składnik bieżącej korekcji błędów.
kix
kjy
kjx
kjx
kiy
kixtijt
tjittijt
2
11
h
SIEĆ HOPFIELDA JAKO PAMIĘĆ SKOJARZENIOWA
Tego typu sieci mogą
działać jako pamięć
autoasocjacyjna, czyli
rozpoznają wzorce,
którymi były uczone.
Wykorzystanie takiej pamięci
polega na tym, że potrafi ona
odtworzyć obraz na podstawie
obrazu silnie zniekształconego
lub zakłóconego.
CY
FR
Y
OBRAZY WZORCÓW
30 % ZAKŁÓCEŃ
ZŁE ODTWORZENIE
OBRAZY WZORCÓW
0 % ZAKŁÓCEŃ
ZŁE ODTWORZENIE
20 % ZAKŁÓCEŃ
PRAWIDŁOWE ODTWORZENIE
PROCES ODTWARZANIA „8"
REGUŁA HEBBA
REGUŁA RZUTOWANIA D
RE
GU
ŁA
HE
BB
A
OBRAZY WZORCÓW
30% ZAKŁÓCEŃ
ZŁE ODTWORZENIE
PROCES ODTWARZANIA "O"
OBRAZY WZORCÓW
20% ZAKŁÓCEŃ
PRAWIDŁOWE ODTWORZENIE
PROCES ODTWARZANIA "1"
OBRAZY WZORCÓW
30% ZAKŁÓCEŃ
ODTWORZENIE Z BŁĘDAMI
PROCES ODTWARZANIA "K"
RE
GU
ŁA
HE
BB
A
OBRAZY WZORCÓW
40 % ZAKŁÓCEŃ
ZŁE ODTWORZENIE
PROCES ODTWARZANIA „1"
OBRAZY WZORCÓW
50 % ZAKŁÓCEŃ
ZŁE ODTWORZENIE
PROCES ODTWARZANIA „+"
OBRAZY WZORCÓW
100 % ZAKŁÓCEŃ
PRAWIDŁOWE ODTWORZENIE
PROCES ODTWARZANIA „O"
ZAKŁÓCONE
W 20%
PRAWIDŁOWO
ODTWORZONE
ZAKŁÓCONE W
40%
PRAWIDŁOWO
ODTWORZONE
REGUŁA HEBBA
ZAKŁÓCONE
W 10%
PRAWIDŁOWO
ODTWORZONE
ZAKŁÓCONE W
20%
PRAWIDŁOWO
ODTWORZONE
REGUŁA RZUTOWANIA D
LITERY a - z LITERY A - Z CYFRY 1 - 9
Przy dopuszczeniu pewnej małej liczby błędów
PORÓWNANIE CZTERECH METOD
CYFRY ( 0 - 9 )
0
20
40
60
80
100
0 10 20 30 40 50
Liczba zmienionych pikseli [%]
Sk
ute
czn
ość
ro
zp.
[%]
Reguła Hebba
Reguła Wzaj. Ogran.
Reguła Rzut. Delta
Zmodyf. Reguła Percep.
PORÓWNANIE CZTERECH METOD
LITERY A - Z
0
20
40
60
80
100
0 10 20 30 40 50
Liczba zmienionych pikseli [%]
Sku
teczn
ość r
ozp
. [%
]
Reguła Hebba
Reguła Wzaj. Ogran.
Reguła Rzut. Delta
Zmodyf. Reguła Percep.
PORÓWNANIE CZTERECH METOD
RĘCZNIE PO GRUBIO NE ZNAKI
0
20
40
60
80
100
0 10 20 30 40 50
Liczba zmienionych pikseli [%]
Sku
teczn
ość r
ozp
. [%
]
Reguła Hebba
Reguła Wzaj. Ogran.
Reguła Rzut. Delta
Zmodyf. Reguła Percep.
PORÓWNANIE CZTERECH METOD
ZESTAWIENIE UŚREDNIO NYCH
WYNIKÓ W RO ZPO ZNAWANIA
0
20
40
60
80
100
0 10 20 30 40 50
Liczba zmienionych pikseli [%]
Sk
ute
czn
ość
rozp
. [%
]
Reguła Hebba
Reguła Wzaj. Ogran.
Reguła Rzut. Delta
Zmodyf. Reguła Percep.
ZASTOSOWANIE SIECI HOPFIELDA DO ODTWARZANIA
ZNIEKSZTAŁCONYCH WZORCÓW
Zbiór testowy ( wprowadzenie
25% szumu )
Zbiór uczący
Zbiór wynikowy
2 BŁĘDY
POŁĄCZENIE DWÓCH SIECI
WE SIEĆ
A
SIEĆ
B WY
POŁĄCZENIE DWÓCH SIECI
WE SIEĆ
A
SIEĆ
B WY
WE WY WE WY
ZASTOSOWANIE POŁĄCZENIA SIECI DO POPRAWY WYNIKÓW
ODTWARZANIA
SIEĆ B
2 BŁĘDY
SIEĆ A
2 BŁĘDY
SIEĆ A
1 BŁĄD
PRZYKŁAD EFEKTOWNEGO SUKCESU
•
SIEĆ A
SIEĆ B
SIEĆ A
WYNIK
62 10 74
80 15 52
95
96
LICZBA
WZORCÓW SZUM
[%]
ŚREDNIA LICZBA
ROZPOZNAŃ
PRZEZ SIEĆ A
[%]
OSTATECZNA
LICZBA
ROZPOZNAŃ
[%]
Optymalizacja
Zagadnienia NP-trudne: jak zastosować sieć Hopfielda? Przykład: najkrótsza droga pomiędzy N miastami.
,
1
2i k i k
i k
E n W n n
Funkcja kosztów: min. droga + 1 w wierszu + 1 w kolumnie
Macierz ni
i=1,2..N, nr. miasta
- kolejność 1
3
6
4
5
2
1 2 3 4 5 6
1 0 0 0 0 0 0 0 0 0 0 1 0 1 0 0 0 00 0 0 1 0 00 0 0 0 1 00 0 1 0 0 0
123456
Kolejność
Miasto
Jak dobrać W?
• Każde dwa miasta są połączone drogą o
określonej długości (graf pełny,
symetryczny, odległości euklidesowe).
• Problem TSP zapisać jako problem
optymalizacyjny z ograniczeniami
OPIS PROBLEMU TSP (TRAVELLING SALESMAN PROBLEM)
OPIS PROBLEMU TSP
● Ograniczenia:
- trasa zaczyna się i kończy w tym samym
mieście;
- trasa przechodzi dokładnie raz przez
każde z pozostałych miast
● Szukana jest najkrótsza droga
Rozwiązanie poprawne, ale nie optymalne
Optymalne rozwiązanie
TSP W SIECI HOPFIELDA
Rodzaje metod:
METODA KLASYCZNA
ZMODYFIKOWANA METODA KLASYCZNA
METODA METODA ANSARI I HOU
TSP W SIECI HOPFIELDA
x xy i
iyiyxixy
x i
xi
i x xy
yixi
x i ij
xjxi
vvvdD
nvC
vvB
vvA
E
)(22
22
1,1,
2
Postać energii w modelu klasycznym:
i
i
i u
vd
E
td
ud
Potencjał wejściowy neuronu i:
Dobór wag
Zagadnienia NP-trudne: jak zastosować sieć Hopfielda? Przykład: najkrótsza droga pomiędzy N miastami.
1 1
2
,
1
2
2
2
2
ik i k k
i k
i i
i
i k
i k
i
i
E n d n n n
An n
Bn n
Cn N
+ 1 w wierszu
Odległość
N miast
+ 1 w kolumnie
, 1, 1,1 1 1i k ik ik ik ikW d A B C
WYNIKI DOŚWIADCZEŃ
METODA KLASYCZNA
Konfiguracja
parametrów
Liczba rozwiązań poprawnych
syntaktycznie [%]
Liczba rozwiązań
optymalnych
Błąd w stosunku do rozwiązania
optymalnego [%]
Z1
Z2
Z3
Z1
Z2
Z3
Z1
Z2
Z3
D = 300
92
88
90
0
0
0
17,2
12,9
11,1
D = 350
79
69
74
0
0
0
15,1
13,4
12,8
D = 400
66
62
69
0
0
0
4,8
2,9
2,1
D = 450
42
45
56
0
0
0
7,1
7,2
7,1
D = 500
30
34
27
0
0
0
10,2
15,4
6,1
WYNIKI DOŚWIADCZEŃ ZMODYFIKOWANA METODA KLASYCZNA
Konfiguracja
parametrów
Liczba rozwiązań poprawnych
syntaktycznie [%]
Liczba rozwiązań
optymalnych
Błąd w stosunku do rozwiązania
optymalnego [%]
Z1
Z2
Z3
Z1
Z2
Z3
Z1
Z2
Z3
D = 250
96
98
95
0
0
0
27,2
22,9
21,1
D = 300
86
92
94
0
0
0
24,8
21,9
18,1
D = 350
74
68
72
0
0
0
11,5
12,4
14,2
D = 400
65
59
62
0
0
0
21,4
8,9
12,9
D = 500
25
28
22
0
0
0
25,6
23,6
24,9
WYNIKI DOŚWIADCZEŃ METODA ANSARI i HOU
Konfiguracja
parametrów
Liczba rozwiązań poprawnych
syntaktycznie [%]
Liczba rozwiązań
optymalnych
Błąd w stosunku do rozwiązania
optymalnego [%]
Z1
Z2
Z3
Z1
Z2
Z3
Z1
Z2
Z3
D = 400
82
80
81
0
0
0
5,1
2,5
2,5
D = 450
64
62
59
0
0
0
1,2
1,0
3,1
D = 500
62
56
45
0
4
3
1,0
0
0
D = 550
36
36
38
0
4
0
6,1
0
9,1
D = 600
16
27
21
3
0
0
0
7,0
9,2
PARAMETRY ALGORYTMU GENETYCZNEGO
• rozmiar populacji: 20
• liczba chromosomów elitarnych: 1
• prawdopodobieństwo inwersji: 0,1
• prawdopodobieństwo mutacji: 0,1
• maksymalna liczba generacji: 10000
• rozmiar chromosomu: 10
WYNIKI DLA ALGORYTMU GENETYCZNEGO
Czas wykonania algorytmu dla 100 symulacji wynosi
przeciętnie 5,6 s (komputer klasy Intel Pentium 4, 2,4 GHz),
czyli nieco szybciej niż działanie symulowanej sieci Hopfielda.
DLA KAŻDEGO ZE ZBIORÓW MIAST
KAŻDA PRÓBA ZAKOŃCZYŁA SIĘ
ZNALEZIENIEM OPTYMALNEJ
DROGI.
WNIOSKI
• Rozwiązywanie problemu TSP przy wykorzystaniu
sieci Hopfielda jest mało efektywne. Nie istnieją
reguły dopasowania parametrów sieci a ich dobór
jest czasochłonny.
• Dużo lepsze rezultaty daje wykorzystanie algorytmów
genetycznych. Przy 100% skuteczności AG (dla 10
miast) wyniki najefektywniejszej sieci Hopfielda nie
są zadowalające (ok. 2% optymalnych rozwiązań).
LITERATURA
Tadeusiewicz Ryszard, Sieci neuronowe. W-wa 1993
Żurada J., BarskiM., Jędruch W., Sztuczne sieci neuronowe. W-wa 1996
Grabska-Chrząstowska J.: Optymalizacjia w sieciach Hopfielda przy konstrukcji sieci skojarzeniowych. Materiały konferencyjne IV Krajowej
Konferencji MSK'03 - Metody i systemy komputerowe, str. 261 - 266, Kraków 2003.
Klimek M., Grabska-Chrząstowska J., Porównanie działania sieci Hopfielda i algorytmów genetycznych dla problemu komiwojażera. Automatyka, Półrocznik, tom8, zeszyt3, str. 459-467, Zeszyty Naukowe AGH, ISNN 1429-3447, Kraków 2004.