2010-3458-1-sm

9
Z. Abidin, Facial Expression Recognition by Using Fisherface Method Facial Expression Recognition By Using Fisherface Methode With Backpropagation Neural Network Zaenal Abidin dan Agus Harjoko Abstract— In daily lives, especially in interpersonal communication, face often used for expression. Facial expressions give information about the emotional state of the person. A facial expression is one of the behavioral characteristics. The components of a basic facial expression analysis system are face detection, face data extraction, and facial expression recognition. Fisherface method with backpropagation artificial neural network approach can be used for facial expression recognition. This method consists of two-stage process, namely PCA and LDA. PCA is used to reduce the dimension, while the LDA is used for features extraction of facial expressions. The system was tested with 2 databases namely JAFFE database and MUG database. The system correctly classified the expression with accuracy of 86.85%, and false positive 25 for image type I of JAFFE, for image type II of JAFFE 89.20% and false positive 15, for type III of JAFFE 87.79%, and false positive for 16. The image of MUG are 98.09%, and false positive 5. Keywords— facial expression, fisherface method, PCA, LDA, backpropagation neural network. I. PENDAHULUAN i dalam kehidupan sehari hari, khususnya dalam komunikasi interpersonal, wajah sering digunakan untuk berekspresi. Melalui ekspresi wajah, maka dapat dipahami emosi yang sedang bergejolak pada diri individu. Ekspresi atau mimik sendiri sebenarnya adalah salah satu bentuk komunikasi nonverbal yang merupakan hasil dari satu atau lebih gerakan atau posisi otot pada wajah serta dapat menyampaikan keadaan emosi dari seseorang kepada orang yang mengamatinya. Z. Abidin, Universitas Negeri Semarang, e-mail : [email protected] A. Harjoko, Elektronika dan Instrumentasi, Jurusan Ilmu Komputer dan Elektronika, Fakultas MIPA, Universitas Gadjah Mada, Yogyakarta, e-mail : [email protected] Ekspresi wajah mengungkapkan pikiran yang sedang melintas pada diri seseorang. Sebagai contoh, sebuah senyum mengungkap keramah- tamahan dan kasih-sayang; mengangkat alis mata menunjukkan ekspresi heran; mengernyitkan dahi menunjukkan ketakutan dan kegelisahan. Semua emosi dan berbagai macam tingkah manusia diekspresikan dalam emosi yang berbeda yang tergambar di wajah. Seorang psikolog bernama Mehrabian dalam penelitiannya menyatakan bahwa ekspresi wajah menyumbang sebesar 55% dalam penyampaian pesan, sementara bahasa dan suara masing-masing menyumbang 7% dan 38%. Paul Ekman, seorang psikolog Amerika juga mendefinisikan enam kategori klasifikasi emosi yaitu senang, sedih, terkejut, marah, takut dan jijik. Kebanyakan sistem pengenal ekspresi wajah, mengklasifikasikan emosi ke dalam enam kategori universal tersebut, [4]. Dewasa ini teknologi menggunakan biometrika telah banyak sekali diaplikasikan. Teknologi biometrika diterapkan dengan menggunakan karakteristik pembeda (distinguishing traits). Secara umum karakteristik pembeda itu sendiri dibedakan menjadi 2, yaitu karakteristik fisiologis atau fisik, dan karakteristik perilaku. Ekspresi wajah merupakan salah satu karakteristik perilaku. Penggunaan sistem teknologi biometrika dengan karakteristik ekspresi wajah memungkinkan untuk mengenali mood atau emosi seseorang. Analisis ekspresi wajah berhubungan dengan pengenalan secara visual gerakan wajah dan perubahan fitur wajah. Komponen dasar sistem analisis ekspresi wajah adalah deteksi wajah, ekstraksi data wajah, dan pengenalan ekspresi wajah. Beberapa penelitian yang telah dilakukan dan yang berkaitan dengan ekspresi wajah diantaranya dilakukan oleh Lekshmi dan Sasikumar [5], yang melakukan analisis ekspresi wajah dengan menggunakan metode Gabor Wavelet Transform (GWT) dan DCT. Jaringan Radial Basis Function (RBF) digunakan sebagai classifier. Bashyal dan Venayagamoorthy [1], D 83

Upload: muhar-riana

Post on 12-Dec-2015

16 views

Category:

Documents


0 download

DESCRIPTION

hjh

TRANSCRIPT

Page 1: 2010-3458-1-SM

Z. Abidin, Facial Expression Recognition by Using Fisherface Method

Facial Expression Recognition By Using FisherfaceMethode With Backpropagation Neural Network

Zaenal Abidin dan Agus Harjoko

Abstract— In daily lives, especially ininterpersonal communication, face often used forexpression. Facial expressions give information aboutthe emotional state of the person. A facial expressionis one of the behavioral characteristics. Thecomponents of a basic facial expression analysissystem are face detection, face data extraction, andfacial expression recognition. Fisherface method withbackpropagation artificial neural network approachcan be used for facial expression recognition. Thismethod consists of two-stage process, namely PCAand LDA. PCA is used to reduce the dimension, whilethe LDA is used for features extraction of facialexpressions. The system was tested with 2 databasesnamely JAFFE database and MUG database. Thesystem correctly classified the expression withaccuracy of 86.85%, and false positive 25 for imagetype I of JAFFE, for image type II of JAFFE 89.20%and false positive 15, for type III of JAFFE 87.79%,and false positive for 16. The image of MUG are98.09%, and false positive 5.

Keywords— facial expression, fisherface method,PCA, LDA, backpropagation neural network.

I. PENDAHULUAN

i dalam kehidupan sehari hari, khususnyadalam komunikasi interpersonal, wajah

sering digunakan untuk berekspresi. Melaluiekspresi wajah, maka dapat dipahami emosi yangsedang bergejolak pada diri individu. Ekspresiatau mimik sendiri sebenarnya adalah salah satubentuk komunikasi nonverbal yang merupakanhasil dari satu atau lebih gerakan atau posisi ototpada wajah serta dapat menyampaikan keadaanemosi dari seseorang kepada orang yangmengamatinya.

Z. Abidin, Universitas Negeri Semarang, e-mail :[email protected]

A. Harjoko, Elektronika dan Instrumentasi, Jurusan IlmuKomputer dan Elektronika, Fakultas MIPA, Universitas GadjahMada, Yogyakarta, e-mail : [email protected]

Ekspresi wajah mengungkapkan pikiran yangsedang melintas pada diri seseorang. Sebagaicontoh, sebuah senyum mengungkap keramah-tamahan dan kasih-sayang; mengangkat alis matamenunjukkan ekspresi heran; mengernyitkan dahimenunjukkan ketakutan dan kegelisahan. Semuaemosi dan berbagai macam tingkah manusiadiekspresikan dalam emosi yang berbeda yangtergambar di wajah.

Seorang psikolog bernama Mehrabiandalam penelitiannya menyatakan bahwa ekspresiwajah menyumbang sebesar 55% dalampenyampaian pesan, sementara bahasa dan suaramasing-masing menyumbang 7% dan 38%. PaulEkman, seorang psikolog Amerika jugamendefinisikan enam kategori klasifikasi emosiyaitu senang, sedih, terkejut, marah, takut danjijik. Kebanyakan sistem pengenal ekspresiwajah, mengklasifikasikan emosi ke dalam enamkategori universal tersebut, [4].

Dewasa ini teknologi menggunakanbiometrika telah banyak sekali diaplikasikan.Teknologi biometrika diterapkan denganmenggunakan karakteristik pembeda(distinguishing traits). Secara umum karakteristikpembeda itu sendiri dibedakan menjadi 2, yaitukarakteristik fisiologis atau fisik, dankarakteristik perilaku. Ekspresi wajah merupakansalah satu karakteristik perilaku. Penggunaansistem teknologi biometrika dengan karakteristikekspresi wajah memungkinkan untuk mengenalimood atau emosi seseorang.

Analisis ekspresi wajah berhubungandengan pengenalan secara visual gerakan wajahdan perubahan fitur wajah. Komponen dasarsistem analisis ekspresi wajah adalah deteksiwajah, ekstraksi data wajah, dan pengenalanekspresi wajah.

Beberapa penelitian yang telahdilakukan dan yang berkaitan dengan ekspresiwajah diantaranya dilakukan oleh Lekshmi danSasikumar [5], yang melakukan analisis ekspresiwajah dengan menggunakan metode GaborWavelet Transform (GWT) dan DCT. JaringanRadial Basis Function (RBF) digunakan sebagaiclassifier. Bashyal dan Venayagamoorthy [1],

D

83

Page 2: 2010-3458-1-SM

IJCCS, Vol. 5 No. 1, Jan, 2011

melakukan pengenalan ekspresi wajah denganmenggunakan Gabor wavelet untukmengekstraksi ciri dan mengkombinasikannyadengan LVQ untuk mengenali tujuh ekspresiwajah. Kulkarni [4], mengklasifikasikanekspresi wajah secara efektif berdasarkan inputparameter wajah menggunakan committeeneural network. Deng [3], mengembangkansebuah penelitian yang membandingkan metodebank tapis gabor lokal dan global denganpendekatan PCA+LDA sebagai pereduksidimensi, sedangkan pada tahap klasifikasidigunakan jarak minimum Euclid. Ma danKhorasani [7], melakukan penelitian denganmenggunakan 2-D discrete cosine transform(DCT) untuk mendeteksi ciri dan jaringan syaraffeedforward dengan satu layer tersembunyisebagai pengklasifikasi ekspresi wajah.

II. ANALISIS DAN KEBUTUHAN SISTEM

Sistem yang dibangun adalah sistemuntuk pengenalan ekspresi wajah yang dilakukandengan mengenali pola dari citra wajah. Ekspresiyang akan dikenali adalah ekspresi netral plus 6ekspresi dasar wajah yaitu: senang, sedih, marah,terkejut, takut dan jijik. Pengenalan ekspresiwajah didasari pada pengenalan pola denganpendekatan jaringan syaraf menggunakanalgoritma backpropagation. Proses pengenalanekspresi wajah dilakukan denganmembandingkan citra input dengan citra yangtelah dilatih oleh sistem.

Secara garis besar, penelitian ini terdiridari beberapa tahap yaitu:

1. Proses pengambilan citra digital.Citra yang digunakan untuk penelitian initerdiri dari sekumpulan citra untukpelatihan (training data set) dansekumpulan citra untuk pengujian (testingdata set). Data citra untuk pelatihan danpengujian diperoleh dari dua sumberdatabase yakni:

a. JAFFE database [6], yang terdiri dari213 gambar ekspresi wajah dari 10subyek wanita Jepang. Setiap subyekberpose 3 sampai 4 untuk 6 ekspresiwajah + 1 netral. Setiap gambarmemiliki format tiff, dengan modewarna grayscale dan memiliki ukuran256×256 piksel.

b. MUG database [2], yang digunakanadalah 18 subyek dengan total citraadalah 630 buah citra. Masing-masing

subyek berpose untuk 7 ekspresiwajah. Dari database yang ada diambilsebanyak 5 citra per ekspresi. Setiapgambar memiliki format jpg, denganmodel warna RGB dan memilikiukuran 896×896 piksel.

Rincian pembagian data citra yang akandigunakan untuk pelatihan dan pengujianditunjukkan dalam Tabel 1.

Tabel 1. Rincian pembagian data citraNama

DatabaseJumlah

Citra LatihJumlah

Citra UjiTotalCitra

JAFFE 140 73 213MUG 504 126 630

2. Proses pengolahan citra meliputinormalisasi ukuran, histogram equalization,dan masking.

3. Proses membuat data input menggunakanmetode fisherface yang akan digunakanpada proses learning pada jaringan syaraftiruan.

4. Proses pelatihan untuk citra training dataset.Pengenalan citra yang akan dikenali jenisekspresinya (testing data set) baik citrayang ada di dalam training data set maupuncitra yang belum dilakukan pelatihansebelumnya.

III. SISTEM PEMROSESAN

Dalam penelitian ini, untuk membangunsistem pengenalan ekspresi wajah dilakukandengan dua tahapan proses yaitu proses pelatihancitra training data set dan proses pengenalan citrayang akan dikenali. Gambar 1 menunjukkan fasepelatihan dan fase pengenalan untuk sistempengenalan ekspresi wajah.

84

Gambar 1. Sistem pemrosesan pengenalan

ekspresi wajah
Page 3: 2010-3458-1-SM

Z. Abidin, Facial Expression Recognition by Using Fisherface Method

Gambar 2. Ilustrasi sistem deteksi wajah menggunakan metode integral projection

III.I DETEKSI WAJAH

Sistem deteksi wajah dipandang sebagaipengenalan pola di mana inputnya adalah citramasukan dan akan ditentukan output yangberupa label kelas dari citra tersebut. Dalam halini terdapat dua label kelas, yaitu wajah dannon-wajah.

Salah satu kunci sukses dalampengenalan ekspresi wajah adalah deteksi wajahyang akurat, karena gambar wajah yangterdeteksi akan sangat mempengaruhi dalamproses pengenalannya. Langkah pertama padapengenalan ekspresi wajah secara otomatisadalah mendeteksi keberadaan wajah darigambar masukan. Dalam penelitian inidigunakan metode integral projection. Integralprojection adalah suatu metode yang digunakanuntuk mencari daerah atau lokasi dari obyek.Teknik ini dikemukan oleh T. Kanade (dalamYisu et al, 2009). Ide dasar tentang integralprojection pada tingkat keabuan adalahmenjumlahkan piksel per baris dan piksel perkolom. Misalkan sebuah gambar berukuranm×n, dan tingkat keabuan setiap pikselnya

adalah , maka fungsi vertical projectiondapat dirumuskan seperti persamaan (1) sebagaiberikut.

( 1 ) (1)

Sedangkan untuk persamaan fungsihorizontal projection ditunjukkan padapersamaan (2).

( 2 )(2)

Ilustrasi sistem deteksi wajah denganmenggunakan metode integral projectionditunjukkan oleh Gambar 2.

Dari grafik integral projection yangtelah diperoleh, selanjutnya ditentukan titik-titikminimum lokal untuk menentukan batas wajah.

III.II PRE-PROCESSING

Tahap pre-processing untuk prosespelatihan dilakukan dengan otomatisasi melaluideteksi wajah, yaitu dengan mendeteksi daerahwajah dan melakukan normalisasi ukuran. Citradari database JAFFE akan digunakan 3 ukurandalam proses normalisasi ukuran yaitu untuk tipeI 33×29 piksel, untuk tipe II 65×57 piksel, danuntuk tipe III 130×114 piksel. Selanjutnyadilakukan histogram equalization untukmelakukan perluasan kontras citra, serta maskinguntuk menutup bagian sudut-sudut citra sehinggamengurangi variasi yang timbul pada bagian-bagian tersebut.

Gambar 3. Contoh data wajah yang telahmengalami pre-processing

III.III KONTRUKSI FISHERFACE

Setelah melalui tahap pre-processing,kemudian pembuatan set fisherface dari suatuset citra training dengan metode fisherface,yaitu dengan menggunakan perhitungan PCAdan LDA. Sebelumnya matriks representasi citrawajah diubah menjadi vektor kolom, sehinggatiap citra akan direpresentasikan menjadi vektorkolom. Jika citra memiliki ukuran M×N, makavektor kolom yang terbentuk berukuran MN × 1.Berikut ini adalah langkah pembuatan setfisherface.

85

Page 4: 2010-3458-1-SM

IJCCS, Vol. 5 No. 1, Jan, 2011

1. Perhitungan PCAAdapun langkah perhitungan PCA sebagai

berikut.a. Mengambil satu set gambar yang akan

dilatih, kemudian mentransformasikansetiap gambar tersebut menjadi vektorkolom, sehingga akan didapat satu matriksyang tiap kolomnya mewakili gambaryang berbeda, face space. Matriks tersebutberukuran MN×p, dimana p adalah jumlahkeseluruhan citra latih.

b. Mencari mean face yaitu nilai rata-ratadari seluruh gambar wajah dari trainingdata set, dan mengurangi seluruh gambarpada training set terhadap mean faceuntuk mencari deviasinya.

c. Menghitung matriks kovarians. Matrikskovarians berdimensi m × m.

d. Menghitung eigenvalue dan eigenvectordari matriks kovarians yang telahdiperoleh. Eigenvalue dan eigenvectoryang bersesuaian diurutkan secaradescending .

e. Menghitung matriks proyeksi PCA yaitudengan mengalikan nilai deviasi denganeigenvector.

f. Mengambil P–K komponen dari matriksproyeksi PCA yang diperlukan untukmengkonstruksi fisherface, dimana Padalah total citra latih dan K adalahbanyaknya kelas.

2. Perhitungan LDAProses perhitungan LDA dapat dilakukan

dengan langkah sebagai berikut.a. Mentransformasikan training set ke

dalam vektor kolom (face space).b. Mencari mean face dari face space, dan

nilai wajah rata-rata masing-masing kelas(class mean face)

c. Melakukan perhitungan matriks sebarandalam kelas (within class scatter matrix,SB) dan matriks sebaran antar kelas(between class scatter matrix, SW).

d. Memproyeksikan matriks sebaran (SB danSW) ke dalam matriks proyeksi PCA.

e. Menghitung eigenvalue dan eigenvectordari matriks sebaran yang diperoleh.

f. Menghitung matriks proyeksi fisherdengan mengurutkan eigenvectorberdasarkan besarnya eigenvalue masing-masing eigenvector dan mengambilkomponen eigenvector yang memilikinilai eigen tidak nol. Untuk K kelas, akan

selalu didapat K–1 eigenvector yangmemiliki eigenvalue tidak nol.

III.IV PEMBELAJARAN BACKPROPAGATION

Tujuan pembelajaran jaringan adalahkeseimbangan antara kemampuan memorisasidan generalisasi. Hasil pembelajaran jaringansyaraf tiruan diharapkan tidak hanya baikdalam memprediksi pada citra masukan trainingdata set, akan tetapi juga baik dalammemprediksi citra yang akan dikenali di testingdata set.Arsitektur jaringan yang digunakan untukpenelitian terdiri dari 3 layer, yaitu 1 inputlayer, 1 hidden layer, dan 1 output layer.Jumlah neuron input layer adalah 6 ditambahdengan 1 bias, sesuai dengan keluaran darikonstruksi fisherface yang terdiri dari 6 nilaieigenvector yang signifikan. Layer kedua yaituhidden layer yang jumlahnya divariasi yaitu 12,60, dan 120 ditambah 1 bias. Jumlah neuronpada output layer adalah 7 buah neuron yaitusesuai dengan target yang diteliti yang terdiridari 6 ekspresi dasar wajah + 1 netral. Fungsiaktivasi yang digunakan untuk layertersembunyi adalah fungsi sigmoid bipolar,sedangkan pada layer output digunakan fungsisigmoid biner karena nilai keluaran yangdiharapkan berada pada range [0,1]. Output darimasing-masing neuron dikonversi ke nilai binerdalam bentuk 0 atau 1. Sebuah output lebih dariatau sama dengan 0,6 dikonversi menjadi 1,sedangkan output kurang dari 0,6 dikonversimenjadi 0. Nilai output 1 mengindikasikanekspresi tertentu ada dan nilai output 0mengindikasikan bahwa ekspresi tertentu tidakada. Nilai learning rate divariasi 0,25 dan 0,5,target error yang digunakan adalah 0,0001 danmaksimum epoh yang diinginkan adalah 1000.Konfigurasi output NN dan interpretasiditunjukkan pada Tabel 2.

Tabel 2. Konfigurasi output NN dan interpretasi

86

Page 5: 2010-3458-1-SM

Z. Abidin, Facial Expression Recognition by Using Fisherface Method

Langkah pembelajaran pada jaringanbackpropagation adalah sebagai berikut.

1. Inisialisasi parameter dari jaringan,meliputi:a) Mengeset jumlah neuron hidden layer.b) Mengeset learning rate, (0 ≤ ≤ 1).c) Mengeset target error.d) Mengeset maksimum epoh.

2. Inisialisasi bobot (bobot dipilih secararandom dengan nilai yang kecil denganrange antara – 1 dan 1).

Setelah dilakukan inisialisasi, berikutnyaadalah tahapan feedforwad yaitumenjumlahkan sinyal-sinyal input terbobotpada hidden layer dan output layer. Sinyaldari input layer ke hidden layer diaktivasidengan fungsi sigmoid bipolar dan sinyal darihidden layer ke output layer diaktivasidengan fungsi sigmoid biner. Tahapberikutnya adalah tahap backpropagationyang dimulai dengan menghitung informasierror. Informasi error diperoleh dari selisihantara nilai target yang telah ditentukandengan nilai keluaran dari output layer.Informasi error tersebut digunakan untukmengoreksi bobot pada unit output danhidden. Koreksi bias dilakukan pula padaunit output dan unit hidden. Tiap-tiap unitoutput dan unit hidden memperbaiki bobotdan biasnya langkah tersebut di atasdikerjakan berulang-ulang selama kurangdari maksimum epoh atau MSE kurang daritarget error. Bobot akhir selanjutnyadisimpan untuk dimanfaatkan pada prosespengenalan.

III.V PENGENALAN EKSPRESI WAJAH

Langkah pengenalan ekspresi wajah,terhadap citra yang akan dikenali adalah sebagaiberikut.1. Memasukkan citra yang akan dikenali ke

sistem pengenalan ekspresi.2. Dilakukan deteksi wajah pada citra yang

akan dikenali oleh sistem.3. Proses pengenalan ekspresi wajah.

Data wajah yang berhasil dideteksi, di-cropping, kemudian dilakukan normalisasiukuran, histogram equalization danmasking, selanjutnya dilakukan konstruksifisherface yang hasilnya dapat diinputkanke jaringan syaraf tiruan, dalam hal iniproses yang adalah proses feedforward.

Hasil keluaran jaringan syaraf inidibandingkan dengan target, kemudianditampilkan hasilnya.

IV. HASIL DAN PEMBAHASAN

IV.I PENGUKURAN EVALUASI UNJUK KERJA

SISTEM

Pengukuran evaluasi unjuk kerja darisistem pengenalan ekspresi wajah, padadigunakan dua parameter, yaitu recognition ratedan false positive rate. Recognition rate adalahperbandingan antara jumlah wajah yang berhasildikenali ekspresinya dengan benar denganjumlah seluruh wajah yang ada. Sedangkan falsepositive rate adalah banyaknya ekspresi wajahyang terklasifikasi tidak sesuai dengan ekspresiyang seharusnya.

IV.II PEMBAHASAN HASIL DETEKSI WAJAH

Penelitian ini menggunakan otomatisasideteksi wajah terhadap citra query yang akandikenali jenis ekspresinya. Metode yangdigunakan untuk deteksi wajah adalah metodeintegral projection. Metode ini menjumlahkantiap-tiap piksel perbaris dan perkolom. Jadisetiap piksel dalam satu baris dijumlahkansepanjang lebar dari citra, sebanyak tinggi citradan selanjutnya disebut horizontal integralprojection. Setiap piksel dalam satu kolom jugadijumlahkan sepanjang tinggi citra, sebanyaklebar citra, dan selanjutnya disebut denganvertikal integral projection.

Wajah yang terdeteksi selanjutnya di-cropping berdasarkan batas nilai yang telahdiperoleh dari proses integral projection, yangselanjutnya dilakukan histogram equalizationuntuk mengurangi pengaruh variasipencahayaan, kemudian dilakukan normalisasiukuran, serta masking untuk menutup bagiansudut-sudut citra sehingga mengurangi variasiyang timbul pada bagian-bagian tersebut.Gambar 6 adalah contoh wajah yang berhasildideteksi dan telah dilakukan histogramequalization, normalisasi ukuran dan masking.

CitraAsli

HasilDeteksi

CitraAsli

HasilDeteksi

Gambar 4. Hasil deteksi wajah

87

Page 6: 2010-3458-1-SM

IJCCS, Vol. 5 No. 1, Jan, 2011

Hasil deteksi wajah dengan latarbelakangyang terlalu bervariasi ternyata menghasilkanRegion of Interest (ROI) wajah yang tidak baguskarena ada bagian wajah yang terpotong, ataumasih terdapat bagian bukan wajah yang ikutditampilkan, bahkan sampai tidak ditemukanwajah sama sekali.

IV.III PEMBAHASAN KONSTRUKSI FISHERFACE

Data wajah yang telah diperoleh darihasil deteksi wajah, selanjutnyadirepresentasikan ke dalam matriks. Pada citraJAFFE setelah dilakukan proses PCA, diambil133 komponen dari matriks proyeksi PCA yangdiperlukan untuk mengkonstruksi fisherface,dimana 133 merupakan selisih antara total citralatih dan banyaknya kelas ekspresi. Jadi dimensidari ketiga tipe, masing-masing akan direduksimenjadi 133. Sedangkan pada citra dari databaseMUG diambil 497 komponen dari matriksproyeksi PCA yang diperlukan untukmengkonstruksi fisherface. Jadi dimensinyadireduksi menjadi 497.

Setelah dilakukan reduksi dimensidengan perhitungan PCA, maka prosesdilanjutkan dengan perhitungan LDA untukmendapatkan matriks proyeksi fisher.Perhitungan LDA ini menghasilkan fisherspaceberukuran 6×140 untuk citra JAFFE, dan 6×630untuk citra MUG. Jadi setiap kolom adalahmewakili ciri ekspresi yang berbeda dari tiaporang.

IV.IV PEMBAHASAN HASIL ARSITEKTUR

JARINGAN SYARAF TIRUAN BACKPROPAGATION

Arsitektur jaringan yang akandikembangkan dalam penelitian ini terdiri atas 3buah layer, yakni 1 buah input layer, 1 buahhidden layer dan 1 buah output layer. Jumlahneuron pada input layer adalah 6 neuron, hal inisesuai dengan output dari proses konstruksifisherface. Sedangkan jumlah neuron pada outputlayer adalah 7 neuron, sesuai dengan jumlahkelas ekspresi yang diteliti.

Parameter yang diberikan memilikiperubahan pada jumlah neuron hidden, dan nilailearning rate-nya. Pelatihan dilakukan sebanyak6 kali dengan melakukan perubahan terhadapparameter jaringan syaraf tiruan. Parameterjumlah neuron hidden yang akan diujicoba

adalah 12, 60, dan 120. Sedangkan untuklearning rate dipilih nilai 0,5 dan 0,25. Targeterror akan diset dengan 0,0001 dan jumlahmaksimum epoh adalah 1000.

Jaringan syaraf tiruan yang optimalpada pengujian citra dari database JAFFE tipe Iadalah dengan mengeset jumlah neuron hidden= 12, dan learning rate = 0,5. Pada citra tipe II,jumlah neuron hidden = 12, dan learning rate =0,25, dan pada citra tipe III, jumlah neuronhidden = 12, dan learning rate = 0,25.Sedangkan pada citra dari database MUG,jaringan syaraf tiruan optimal adalah untukjumlah neuron hidden = 12, dan learning rate =0,25.

IV.V PENGARUH UKURAN RESOLUSI TERHADAP

HASIL PENGENALAN

Pada citra tipe I dengan ukuran 33×29memberi hasil terbaik 86,85%. Pada citra tipe IIdengan ukuran 65×57 memberi persentaseterbaik sebesar 89,20%, sedangkan untuk citratipe III dengan ukuran 130×114 mampumengenali ekspresi sebesar 87,79%. Jadi dapatdikatakan bahwa citra tipe II dengan ukuran65×57 memberikan hasil yang lebih baikdibandingkan tipe I dan III.

IV.VI HASIL PENGENALAN CITRA QUERY

PELATIHAN DAN NON - PELATIHAN DARI

DATABASE JAFFE

Sistem pengenalan ekspresi wajah daridatabase JAFFE telah diuji menggunakan 213citra di mana 140 citra telah dilatih (citra querypelatihan) dan 73 citra merupakan citra yangbelum pernah dilatih sebelumnya (citra non-pelatihan). Data hasil pengenalan dengan hasilterbaik ditunjukkan pada tabel confusion matrixberikut ini. Hasil pengenalan terhadap citra queryyang telah dilatih sebelumnya baik untuk citratipe I, II, dan III memberikan hasil yang sama.Sistem mampu mengenali dengan baik seluruhcitra yang dilatih sebelumnya. Tabel 3merupakan confusion matrix hasil pengenalanpada citra query pelatihan baik tipe I, II, maupunIII, sedangkan Tabel 4 sampai dengan Tabel 6merupakan confusion matrix hasil pengenalanpada citra query non-pelatihan.

88

Page 7: 2010-3458-1-SM

Z. Abidin, Facial Expression Recognition by Using Fisherface Method

Tabel 3. Confusion matrix untuk citra querypelatihan tipe I, II, dan III

Tabel 4. Confusion matrix untuk citra non-pelatihan tipe I

Tabel 5. Confusion matrix untuk citra non-pelatihan tipe II

Tabel 6. Confusion matrix untuk citra non-pelatihan tipe III

IV.VII PEMBAHASAN PENGENALAN CITRA

QUERY PELATIHAN DAN NON-PELATIHAN DARI

DATABASE MUG

Hasil yang ditunjukkan pada Tabel 7dapat dijelaskan bahwa sistem mampu mengenalisemua ekspresi dari citra wajah yang telah dilatihsebelumnya. Hal ini dapat dilihat dari elemendiagonal utama pada confusion matrix yangmerata dengan angka 72, sedangkan elemen diluar diagonal utama sama dengan nol. Jaditingkat pengenalan pada citra query pelatihanadalah 100%. Hasil pengenalan pada citra querynon-pelatihan ditunjukkan dengan confusionmatrix pada Tabel 8.

Tabel 7. Confusion matrix untuk citra querypelatihan dari database MUG

Tabel 8. Confusion matrix untuk citra non-pelatihan dari database MUG

IV.VIII PERBANDINGAN HASIL PENGENALAN

ANTARA DATABASE JAFFE DAN DATABASE

MUG

Dari hasil pengujian yang telahdilakukan, didapatkan bahwa recognition rateuntuk citra dari JAFFE adalah 86,85% (Tipe I),89,20% (Tipe II) dan 87,79% (Tipe III).Sedangkan recognition rate pada citra MUGadalah 98,09%. Dari nilai yang dihasilkan,tampak perbedaan nilai yang sangat signifikandari kedua database tersebut. Di mana citraMUG cenderung dapat dikenali secara baikdengan ditunjukkan dari recognition rate yangtinggi (lihat Tabel 6.4).

Recognition rate yang tinggi ini salahsatunya dipengaruhi oleh faktor akuisisi daricitra itu sendiri. Pada citra JAFFE, seorangexpressor mengambil gambar ekspresinyasendiri sembari melihat melalui plastik semireflektif yang berada di depan kamera. Setiapexpressor berpose 3 sampai 4 contoh dari setiapekspresi [6]. Sehingga dimungkinkan adaperubahan posisi dalam berpose. Pada citra daridatabase MUG merupakan citra sekuensial yangdiambil menggunakan kamera yang mampumenangkap gambar rata-rata 19 frame per detik.Setiap sekuensial bisa terdiri 50 sampai dengan160 citra. Dalam penelitian ini, citra yangdigunakan dari database MUG hanya 5 yangdiambil secara acak. Faktor sekuensial inilahyang mengakibatkan pose dari setiap expressorcenderung sama.

89

Page 8: 2010-3458-1-SM

IJCCS, Vol. 5 No. 1, Jan, 2011

Selain karena faktor akuisisi dari citra,banyaknya jumlah data yang digunakan untukpelatihan juga berbeda. Pada citra JAFFE jumlahdata yang dilatih ada sebanyak 140 buah citradari 213 citra yang ada atau sebesar 65,57%.Jumlah 140 buah citra ini diperoleh dari 2 citra ×7 ekspresi × 10 subyek. Sedangkan pada citraMUG, jumlah citra yang dilatih ada sebanyak504 buah citra dari 630 citra yang ada atausebesar 80%. Jumlah 504 buah citra inidiperoleh dari 4 citra × 7 ekspresi × 18 subyek.Dengan demikian semakin banyak jumlah citrayang dilatih semakin tinggi tingkat pengenalanekspresinya.

Keseluruhan recognition rate yangdiperoleh di atas juga sedikit berbeda denganhasil pengujian yang dilakukan denganmenggunakan fungsi backpropagation (fungsinewff) yang build in matlab. Recognition rateterbaik untuk citra JAFFE tipe I dan II yangdihasilkan dengan menggunakan fungsi build inmatlab adalah 89,20%. Pada citra JAFFE tipeIII, recognition rate terbaiknya adalah 92,02%.Sedangkan pada citra MUG, recognition rateterbaiknya adalah 99,21%. Perbedaan ini bisadiakibatkan karena ada perbedaan pembangkitanbobot antara fungsi yang dibuat, dengan fungsiyang build in matlab. Pembangkitan bobot padafungsi yang dibuat adalah menggunakan prinsipinisialisasi Nguyen–Widrow. Penggunaanprinsip inisialisasi ini, bobot diskalamenggunakan faktor skala, dengan sebelumnyadilakukan pembangkitan secara acak bobotdengan interval antara – 0,5 dan 0,5. Sedangkanbilangan acak yang dibangkitkan dari fungsiyang build in matlab secara default berada padainterval – 1 dan 1.

V. KESIMPULAN DAN SARAN

V.I KESIMPULAN

Berdasarkan hasil analisis danpembahasan yang telah dilakukan, dapat ditarikbeberapa kesimpulan sebagai berikut:

1. Jaringan syaraf tiruan yang optimal padapengujian citra dari database JAFFE tipe Iadalah dengan mengeset jumlah neuronhidden = 12, dan learning rate = 0,5. Padacitra tipe II, jumlah neuron hidden = 12,dan learning rate = 0,25, dan pada citratipe III, jumlah neuron hidden = 12, danlearning rate = 0,25. Sedangkan pada citra

dari database MUG, jaringan syaraf tiruanoptimal adalah untuk jumlah neuron hidden= 12, dan learning rate = 0,25.

2. Hasil pengenalan yang dilakukan pada citradatabase JAFFE maupun MUGmemperoleh hasil sebagai berikut.a. Citra JAFEE tipe I (ukuran 33×29)

dengan recognition rate = 86,85%, danfalse positive = 25.

b. Citra JAFFE tipe II (ukuran 65×57)dengan recognition rate = 89,20%, danfalse positive = 15.

c. Citra JAFFE tipe III (ukuran 130×114)dengan recognition rate = 87,79%, danfalse positive = 16.

d. Citra MUG (ukuran 65×57) denganrecognition rate = 98,09%, dan falsepositive = 5.

V.II SARAN

Berdasarkan pada pengujian yang telahdilakukan pada sistem yang dibuat, masihbanyak kekurangan dan kelemahan sehinggaperlu dikembangkan lagi agar kinerjanya lebihbaik, oleh karena itu saran yang diberikanadalah sebagai berikut:

1. Peningkatan unjuk kerja sistem pengenalanekspresi wajah, dapat dilakukan denganmemberikan pelatihan lebih lanjut dengantambahan data training yang lebih banyak.

2. Deteksi wajah menggunakan integralprojection, kurang baik untuk citra denganlatarbelakang yang sangat bervariasi. Padakasus pendeteksian wajah di dalam citraberwarna dapat dikombinasikan denganmetode yang lain, misalnya denganmendeteksi warna kulit terlebih dahulu barudilakukan proses integral projection.

3. Dalam penelitian ini digunakan metodeholistik dengan memanfaatkan cirikeseluruhan wajah, perlu dipertimbangkanuntuk menambahkan ciri-ciri lokal wajahseperti alis, mata, mulut dan hidung untukmenambah akurasi kinerja sistem.

4. Antarmuka visual hendaknya dibuat lebihmenarik dan memberi kemudahan dalampenggunaan sistem.

90

Page 9: 2010-3458-1-SM

Z. Abidin, Facial Expression Recognition by Using Fisherface Method

VI. DAFTAR PUSTAKA

[1] Bashyal, S., dan Venayagamoorthy, G.K., 2007,Recognition of Facial Expressions Using Gabor Waveletsand Learning Vector Quantization, EngineeringApplication of Artificial Intelligence.http://dx.doi.org/10.1016 /j.engappai.2007.11.010, 2007,diakses 2 Januari 2010.

[2] Delopoulos, A., The MUG Facial Expression Database,Multimedia Understanding Group, http://mug.ee.auth.gr/,diakses 5 Oktober 2010.

[3] Deng, H.B., Jin, L.W., Zhen, L.X., dan Huang, J.C., 2005,A New Facial Expression Recognition Method Based OnLocal Gabor Filter Bank and PCA plus LDA,International Journal of Information Technology, 11, 11,86 – 96.

[4] Kulkarni, S.S., 2006, Facial Image Based MoodRecognition Using Committee Neural Networks, Thesis,Department of Biomedical Engineering University ofAkron.

[5] Lekshmi V., P., dan Sasikumar, M., 2008, A NeuralNetwork Based Facial Expression Analysis using GaborWavelets, World Academy of Science, Engineering andTechnology, 42, 563 – 567.

[6] Lyons, M., Akamatsu, S., Kamachi, M., dan Gyoba, J.,1998, Coding Facial Expression with Gabor Wavelet,Proceedings of The Third IEEE International Conferenceon Automatic Face and Gesture Recognition, 14 – 16April 1998, 200 – 205.

[7] Ma, L. dan Khorasani, K., 2004, Facial ExpressionRecognition Using Constructive Feedforward NeuralNetwork, IEEE Transactions on Systems, Man, andCybernetics, 3, 34, 1588 – 1595.

[8] Yisu Z., Xiaojun S., Georganas, N.D., dan Petriu, E. M.,2009, Part-based PCA for Facial Feature Extraction andClassification, IEEE Transactions on Pattern Analysis andMachine Intelligence, 99 - 104.

91