analiza i interpretacija - etfbl

12
ANALIZA I INTERPRETACIJA Analiza i interpretacija podrazumijevaju otkrivanje, identifikaciju i razumijevanje uzoraka od interesa, Slika 190. Automatska analiza slike mora biti u mogućnost da pokaže određen stepen inteligencije: 1. mogućnost izdvajanja značajnih informacija iz mase irelevantnih detalja, 2. mogućnost učenja na osnovu uzoraka i generalizacije naučenog tako da se može primijeniti u novim, drugačijim okolnostima, 3. sposobnost zaključivanja iz nekompletnih informacija. Slika 190. [1] Blok šema procesa analize i interpretacije slike UZORCI I KLASE UZORAKA Pod uzorkom ćemo podrazumijevati kvantitativni opis objekta ili dijela slike od interesa. Uzorak je sačinjen od jednog ili više deskriptora (osobina - features). Klase uzoraka M ω ω ω ,..., , 2 1 su skupovi (familije) uzoraka koji dijele neke zajedničke osobine. Mašinsko prepoznavanje uzoraka uključuje tehnike grupisanja uzoraka u pripadajuće klase, bez ili sa što manje intervencije čovjeka. Deskriptori koji čine uzorak se uobičajeno zapisuju u formi vektora: = n x x x 2 1 x 215

Upload: others

Post on 05-Nov-2021

21 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: ANALIZA I INTERPRETACIJA - ETFBL

ANALIZA I INTERPRETACIJA Analiza i interpretacija podrazumijevaju otkrivanje, identifikaciju i razumijevanje uzoraka

od interesa, Slika 190. Automatska analiza slike mora biti u mogućnost da pokaže određen stepen inteligencije:

1. mogućnost izdvajanja značajnih informacija iz mase irelevantnih detalja, 2. mogućnost učenja na osnovu uzoraka i generalizacije naučenog tako da se može

primijeniti u novim, drugačijim okolnostima, 3. sposobnost zaključivanja iz nekompletnih informacija.

Slika 190. [1] Blok šema procesa analize i interpretacije slike

UZORCI I KLASE UZORAKA

Pod uzorkom ćemo podrazumijevati kvantitativni opis objekta ili dijela slike od interesa. Uzorak je sačinjen od jednog ili više deskriptora (osobina - features). Klase uzoraka

Mωωω ,...,, 21 su skupovi (familije) uzoraka koji dijele neke zajedničke osobine. Mašinsko prepoznavanje uzoraka uključuje tehnike grupisanja uzoraka u pripadajuće

klase, bez ili sa što manje intervencije čovjeka. Deskriptori koji čine uzorak se uobičajeno zapisuju u formi vektora:

⎥⎥⎥⎥

⎢⎢⎢⎢

=

nx

xx

2

1

x

215

Page 2: ANALIZA I INTERPRETACIJA - ETFBL

Primjer: Posmatrajmo tri vrste (klase) cvijeća iris koje se razlikuju po dužini i. Usvojimo dva

deskriptora::

⎥⎦

⎤⎢⎣

⎡=

2

1

xx

x

Predstavljajući uzorke u vektorskom prostoru, Slika 191, vidimo da postoje lako i teško

separabilne klase: uzorci koji predstavljaju iris setosa se vrlo lako razdvoje od preostale dvije vrste, dok je razdvajanje iris virginica i iris versicolor na osnovu odabranih obilježja veoma teško. Jasno je da stepen separabilnosti jako zavisi od izbora deskriptora.

Slika 191. [1] Klase uzoraka predstavljene u vektorskom prostoru deskriptora

Ako se potpisi koriste za opis objekata, svaki objekat će biti predstavljen jednodimenzionalnim signalom, Slika 192. Odmjervanjem ovog signala potpisa možemo formirati uzorak:

( )( )

( )⎥⎥⎥⎥

⎢⎢⎢⎢

=

nr

rr

θ

θθ

2

1

x .

216

Page 3: ANALIZA I INTERPRETACIJA - ETFBL

Slika 192. [1] Potpis objekta

Klase su sad predstavljene “oblacima” u n-dimenzionalnom vektorskom prostoru (uzorci su vektori u n-dimenzionalnom vektorskom prostoru).

Umjesto korištenja vrijednosti potpisa, možemo izračunati prvih n momenata potpisa i njih koristiti kao deskriptore uzorka.

U navedenim primjerima su za deskriptore korištene kvantitativne mjere nekih osobina. Ako se uzme u obzir da i relacije između pojedinih osobina određuju pripadnost nekoj od klasa, riječ je o strukturalnom pristupu klasifikaciji.

Pri klasifikaciji je veoma važan izbor odgovarajućih deskriptora koji će omogućiti separaciju klasa.

FUNKCIJE ODLUČIVANJA

Neka je n-dimezionalni vektor uzorka. Za M klasa [ Tx,,xx 111 ...,=x ] Mωωω ,...,, 21 osnovni problem prepoznavanja se svodi na pronalaženje M funkcija odlučivanja ( ) ( ) ( )xxx Mddd ,...,, 21 sa osobinom da, ako uzorak x pripada klasi iω , bude zadovoljena sljedeća nejednakost:

( ) ( ) ijMjdd ji ≠=⟩ ;,...,2,1,xx .

Granica odlučivanja koja razdvaja klasu iω od jω je određena vrijednostima x za koje je:

217

Page 4: ANALIZA I INTERPRETACIJA - ETFBL

( ) ( ) 0=− xx ji dd .

Uobičajena praksa je da funkcija:

( ) ( ) ( ) 0=−= xxx jiij ddd određuje granicu klasa. Ako je uzorak pripada klasi ( ) 0⟩xijd iω , a ako je uzorak pripada klasi

( ) 0⟨xijd

jω .

Klasifikacija na osnovu minimalne udaljenosti Pretpostavimo da je svaka klasa opisana prototipnim (srednjim) vektorom:

∑∈

==j

MjN j

jωx

xm ,...,2,1,1 .

Jedan način klasifikacije je pridruživanje uzorka (vektora) x onoj klasi čiji mu je vektor

prototip najbliži (Euklidova norma):

( ) ( ) ( ) MjD jT

jjj ,...,2,1, =−−=−= mxmxmxx . Uzorak x pripada onoj klasi koja ima najmanju ovako definisanu normu.

Može se pokazati da je ovaj postupak ekvivalentan računanju funkcije:

( ) jTjj

Tjd mmmxx

21

−=

i pridruživanju uzorka onoj klasi za koju se dobije najveća numerička vrijednost. Ovaj koncept se slaže sa konceptom funkcija odlučivanja.

Granica između klasa određena je sa:

( ) ( ) ( ) ( ) ( ) ( ) 021

=−−−−=−= jiT

jijiT

jiij ddd mmmmmmxxxx .

Za n=2 granica je prava, za n=3 ravan, a Za n>4 hiperravan.U praksi ovaj klasifikator

radi dobro ako su razlike srednijh vektora klasa velike u poređenju sa rasipanjem oko srednje vrijednosti unutar svake pojedine klase. Primjer:

Posmatrajmo standardizovani set karaktera, Slika 194. Jednodimenzionalni signal je proporcionalan brzini promjene svjetlosti koja padne na čitač. Karakteri su tako odabrani da se dobiju jednoznačni 1D signali. Prototipni vektori se jednostavno formiranju od niza odmjeraka ovih 1D signala (umjesto traženja srednje vrijednosti uzoraka iz klase). Zatim se svaki uzorak poredi sa prototip vektorom (računa se njegova udaljenost od svakog prototip vektora) i pridružuje onoj klasi za koju se dobije najveća vrijednost funkcije odlučivanja, odnosno najmanja udaljenost od prototip vektora.

218

Page 5: ANALIZA I INTERPRETACIJA - ETFBL

Slika 193. [1] Granica odlučivanja

Slika 194. [1] Standardizovani set karaktera i odgovarajući talasni oblici

219

Page 6: ANALIZA I INTERPRETACIJA - ETFBL

Klasifikacija na osnovu korelacije

Pronalaženje podslike ( ) KJyxw ×dimenzija, u slici ( ) NMyxf ×dimenzija, korelacijom:

( ) ( ) ( ) 1,...,2,1,0,1,...,2,1,0,,,, −=−=−−=∑∑ NtMstysxwyxftscx y

se zasniva na činjenici da je vrijednost korelacije maksimalna kada se u slici ( , )f x y pronađe

dio koji je najsličniji traženoj podslici ( ),w x y . Sama operacija korelacije koja je veoma slična konvoluciji ilustrovana je na Slici 195.

Podslika u obliku prozora se pomijera preko slike u kojoj se traži poklapanje i nakon svakog pomaka se računa data korelaciona suma. Jedina razlika u odnosu na konvoluciju je što se ne vrši obrtanje prozorske funkcije. Treba napomenuti da se tačnost određivanja poklapanja gubi u regionima blizu rubova slike.

( ,w x y)

Slika 195. [1] Postupak određivanja korelacije

Loša osobina ovog metoda je da ta što je vrijednost korelacije zavisna od vrijednosti svjetline (ako se nivoi svjetline povećaju dva puta, dva puta se poveća i vrijednost korelacije). Ovo se prevazilazi korištenjem korelacionih koeficijenata umjesto korelacije:

( )( ) ( )[ ] ( )[ ]

( ) ( )[ ] ( )[ ]1,...,2,1,0,1,...,2,1,0,

,,,

,,,, 21

22

−=−=

⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧

−−−−

−−−−

=

∑∑∑∑

∑∑NtMs

wtysxwyxfyxf

wtysxwyxfyxfts

x yx y

x yγ ,

220

Page 7: ANALIZA I INTERPRETACIJA - ETFBL

gdje su wf , srednje vrijednosti. Korelacioni koeficijenti su skalirani u opseg od –1 do 1, neovisno o promjeni u amplituda i ( )yxf , ( )yxw , .

Iako je izvršena normalizacija korelacionih koeficijenata tako da su oni neosjetljivi na promjenu amplitude, normalizacija koja bi korelaciju učinila otpornom na promjenu veličine i rotacije je teška, (rotiranje slike da bi se pronašao položaj koji daje najveći korelacioni koeficijent je računski zahtjevno, kao i skaliranje po veličini). Iako se korelacija može računati u frekvencijskom domenu, zbog malih dimenzija uzorka efikasnije je računanje u prostornom domenu. Primjer:

Postoji analogija između računanja konvolucije i količine svjetlosti koja prolazi kroz preklopljene slike. Ako bijele regione na Slici 196(a) u kojoj se traži uzorak i Slici 196(b) koja je traženi uzorak zamislimo kao otvore, i ako zamislimo da Sliku 196(b) pomijeramo preko Slike 196(a) iza koje se nalazi izvor svjetlosti, najviše svjetlosti kroz otvore će proći kada se traženi uzorak poklopi sa istim uzorkom u Slici 196(a). Rezultat konvolucije prikazan je na Slici 196(c).

Slika 196. [1] Primjer određivanja konvolucije

Optimalni klasifikatori Potražicemo optimalne klasifikatore u smislu najmanje vjerovatnoće greške klasifikacije.

Neka je vjerovatnoća da uzorak x pripada klasi iω je označena sa ( )xip ω . Ako klasifikator odluči da uzorak koji pripada klasi iω pripada klasi jω , veličinu učinjene pogreška označimo sa . Kako uzorak x može da pripada bilo kojoj od M klasa, ukupna greška učinjena pri svrstavanju uzorka u klasu

ijL

jω je:

( ) ( )∑=

=M

kkkjj pLr

1

xx ω .

221

Page 8: ANALIZA I INTERPRETACIJA - ETFBL

Ova jednačina se u teoriji odlučivanja često zove uslovni prosječni rizik (gubitak). Znajući da je ( ) ( ) ( )[ ] ( )bpabpapbap /= , imamo:

( ) ( ) ( ) (∑=

=M

kkkkjj PpL

pr

1

1 ωωxx

x ) ,

gdje je ( kp )ωx funkcija gustoće uzoraka iz klase kω , a ( )kP ω je vjerovatnoća pojavljivanja

klase kω . Kako je ( )xp1 pozitivno i zajedničko za sve ( ) Mjrj ,...,2,1, =x , taj član se može

izostaviti a da se ne naruši relativni poredak ove funkcije od najmanje ka najvećoj vrijednosti. Izraz koji predstavlja srednji gubitak je tada:

( ) ( ) (∑=

=M

kkkkjj PpLr

1

ωωxx ).

Za svaki uzorak klasifikator treba da odabere jednu od M mogućih klasa. Za uzorak x se

izračunaju svi i uzorak se pridružuje klasi sa najmanjim srednjim gubitkom. Klasifikator koji minimizira ukupan srednji gubitak se naziva Bayes-ov klasifikator. Bayes-ov klasifikator pridružuje uzorak x klasi

( ) ( ) ( )xxx Mrrr ,...,, 21

iω ako je . Drugim riječima, uzorak x pripada klasi ( ) ( ) ijMjrr ji ≠=⟨ ;,...,2,1,xx iω ako je:

( ) ( ) ( ) (∑∑==

⟨M

qqqqj

M

kkkki PpLPpL

11

ωωωω xx ).

U mnogim primjenama, gubitak pri donošenju ispravne odluke je nula, dok su gubici svih pogrešnih odluka jednaki i imaju neku nenegativnu vrijednost, recimo 1. Tada je ijijL δ−=1 , pa srednji gubitak postaje jednak:

( ) ( ) ( ) ( ) ( ) ( ) ( jj

M

kkkkjj PppPpr ωωωωδ xxxx −=−=∑

=1

1 ) . Dakle, uzorak x će biti pridružen klasi iω ako je:

( ) ( ) ( ) ( ) ( ) ( )jjii PppPpp ωωωω xxxx −⟨− , odnosno:

( ) ( ) ( ) ( ) ijMjPpPp jjii ≠=⟩ ;,...,2,1ωωωω xx .

Poredeći ovo sa funkcijama odlučivanja, vidimo da Bayes-ov klasifikator sa gubicima 0-1 nije ništa drugo do implementacija funkcije odlučivanja u formi:

( ) ( ) ( ) MjPpd jjj ,...,2,1== ωωxx ,

gdje se uzorak x pridružuje klasi iω ako vrijedi ( ) ( ) ijdd ji ≠∀⟩ xx .

222

Page 9: ANALIZA I INTERPRETACIJA - ETFBL

Ova funkcija odlučivanja je optimalna u smislu da minimizira srednji gubitak pogrešne klasifikacije. Da bi bila primjenljiva, neophodno je poznavati funkciju gustoće uzoraka u zvakoj klasi, kao i vjerovatnoću pojavljivanja svake od klasa. Drugi zahtijev uglavnom ne predstavlja problem. Ako su sve klase jednako vjerovatne, ( ) MP j 1=ω . Ako to nije slučaj, na osnovu poznavanja problema može se zaključiti kakve su vjerovatnoće pojavljivanja klasa. Procjena funkcija gustoće ( )jp ωx nije tako jednostavna. Ako je vektor uzorka n-dimenzionalan, ( )jp ωx je funkcija od n varijabli koju je teško procijeniti, posebno kad nemamo dovoljan broj reprezentativnih uzoraka iz svake klase. Zbog ovoga se primjena Bayes-ovog klasifikatora zasniva na pretpostavljenim analitičkim izrazima, čiji parametri se procjenjuju na osnovu uzoraka iz svake klase. Najčešće se za ( )jp ωx pretpostavlja Gausova funkcija gustoće. Što je ova pretpostavka bliža realnosti, to će se Bayes-ov klasifikator bolje približavati minimumu prosječnih gubitaka u klasifikaciji.

Bayes-ov klasifikator za Gausove klase uzoraka Posmatrajmo jednodimenzionalni problem (n=1) sa dvije klase uzoraka (M=2) sa

Gausovim funkcijama gustoće, Slika 197. Bayes-ove funkcije odlučivanja imaju oblik:

( ) ( ) ( ) ( ) ( )jj

j

jjjj P

mxPxpxd ω

σσπωω

⎥⎥⎦

⎢⎢⎣

⎡ −−== 2

2

2exp

21 ,

gdje su uzorci skalari.

Slika 197. [1] Funkcije gustine za jednodimenzionalni problem klasifikacije

Granica je tačka za koju vrijedi ( ) ( )0201 xdxd = . Ako je vjerovatnoća pojavljivanja obe klase jednaka, ( ) ( ) 2121 == ωω PP , iz jednakosti funkcija odlučivanja na granici klasa slijedi ( ) ( 2010 )ωω xpxp = , dakle presjek funkcija vjerovatnoće određuje granicu klasa. Svaki

uzorak (tačka) s desne strane će biti pridružen klasi 0x 1ω , a svaki uzorak (tačka) s lijeve strane će biti pridružen klasi 0x 2ω . Ako klase nisu jednako vjerovatne, granica se pomijera prema manje vjerovatnoj klasi.

0x

U n-dimenzionalnom slučaju Gausova funkcija gustoće vektora u j-toj klasi ima formu:

223

Page 10: ANALIZA I INTERPRETACIJA - ETFBL

( )( )

( ) ( ⎥⎦⎤

⎢⎣⎡ −−−= −

jjT

j

jnjp mxCmx

Cx 1

212 21exp

2

1

πω )

)

,

gdje je , { }xm jj E= ( )({ }T

jjj EC mxmx −−= , a jC je determinanta kovarijansne matrice. Procijenjena srednja vrijednost i kovarijansna matrica na osnovu uzoraka iz klase jN jω

su:

∑∈

=jj

j N ωx

xm 1 , ∑∈

−=j

Tjj

T

jj N ωx

mmxxC 1 .

Dijagonalni elementi kovarijansne matrice predstavljaju varijansu k-tog elementa iz

vektora uzorka, dok su elementi kovarijanse k-tog i j-tog elementa vektora uzorka. Kad su elementi i (deskriptori!) vektora uzorka statistički nezavisni, .

kkc

jkc

jx kx 0=jkc

Bayes-ova funkcija odlučivanja za klase uzoraka sa gubicima 0-1 je:

( ) ( ) ( ) MjPpd jjj ,...,2,1== ωωxx , ali je jednostavnije raditi sa funkcijom koja je njen logaritam i koja ima iste osobine u smislu klasifikacije (jer je ln monotono rastuća funkcija), tako da za funkciju odlučivanja možemo uzeti:

( ) ( ) ( )[ ] ( ) ( )jjjjj PpPpd ωωωω lnlnln +== xxx . Uvrštavajući izraz za Gausovu funkciju gustoće imamo:

( ) ( ) ( ) ( )[ ]jjT

jjjjnPd mxCmxCx −−−−−= −1

21ln

212ln

2ln πω .

Član π2ln2n je isti za sve klase te se može izostaviti:

( ) ( ) ( ) ( )[ ] MjPd jjT

jjjj ,...,2,1,21ln

21ln 1 =−−−−= − mxCmxCx ω .

Poslednja jednačina predstavlja Bayes-ovu funkciju odlučivanja za Gausove klase uzoraka

sa gubicima 0-1. Ona ima oblik hiperkvadratne funkcije (kvadratna funkcija u n-dimenzionalnom prostoru) jer se ne pojavljuju komponente od x reda većeg od dva.

Najbolje što se može postići Bayes-ovim klasifikatorom za Gausove klase uzoraka je da se postavi površ drugog reda između svake dvije klase uzoraka. Ako su populacije uzoraka zaista Gausove, ne postoji druga površ koja će bolje razgraničiti klase u smislu najmanjih prosječnih gubitaka u klasifikaciji.

Ako su sve kovarijansne matrice jednake, Mjj ,...,2,1, == CC , izostavljanjem svih članova koji su neovisno o j, dobiva se linearna funkcija odlučivanja:

( ) ( ) MjPd jTjj

Tjj ,...,2,1,

21ln 11 =−+= −− mCmmCxx ω .

224

Page 11: ANALIZA I INTERPRETACIJA - ETFBL

Uz to, ako je i IC = ( ) MjMP j ,...,2,1,1 ==ω dobija se:

( ) Mjd jTjj

Tj ,...,2,1,

21

=−= mmmxx ,

što je funkcija odlučivanja klasifikatora zasnovanog na minimalnoj udaljenosti. Prema tome, klasifikator zasnovan na minimalnoj udaljenosti je optimalan u Bayes-ovom smislu ako su: (1) klase uzoraka Gausove, (2) sve kovarijansne matrice jednake jediničnoj matrici, (3) vjerovatnoće svih klasa podjednake. Gausove klase uzoraka koje zadovoljavaju ove uslove su sferični oblaci identičnog oblika u n dimenzija (zvani hipersfere). Klasifikator zasnovan na minimalnim udaljenostima postavlja hiperravan između svake dvije klase, sa osobinom da hiperravan okomito siječe linijski segment koji spaja centre dviju sfera. U dvije dimenzije, klase čine kružni regioni, a granica je linija koja okomito siječe duž koja spaja centar dvije klase. Primjer:

Na Slici 198 su prikazani uzorci koji pripadaju dvjema klasama u tri dimenzije. Pretpostavka je da se radi o Gausovoj raspodjeli.

Slika 198. [1] Dvije klase uzoraka i Bayes-ova granica Postupak rada Bayes-ovog klasifikatora počinje određivanjem:

⎥⎥⎥

⎢⎢⎢

⎡=

113

41

1m , ⎥⎥⎥

⎢⎢⎢

⎡=

331

41

2m , ⎥⎥⎥

⎢⎢⎢

−−===311131

113

161

21 CCC .

Ako pretpostvimo ( ) ( ) 2121 == ωω PP član ( )jP ωln se može ispustiti:

( ) jTjj

Tjd mCmmCxx 11

21 −− −= ,

225

Page 12: ANALIZA I INTERPRETACIJA - ETFBL

gdje je:

⎥⎥⎥

⎢⎢⎢

−−

−−=−

844484448

1C .

Funkcije odlučivanja su:

( ) 5.14 11 −= xd x ,

( ) 5.5884 3212 −++−= xxxd x ,

dok je granična površ data sa:

( ) ( ) 04888 32121 =+−−=− xxxdd xx .

226