Upload presentasi
Presentasi sedang didownload. Silahkan tunggu
Diterbitkan olehHartono Santoso Telah diubah "7 tahun yang lalu
1
ABDUL AZIS ABDILLAH ABDUL AZIS ABDILLAH 1006786032
UNIVERSITAS INDONESIA UJI KINERJA LEARNING TO RANK MENGGUNAKAN METODE SUPPORT VECTOR REGRESSION ABDUL AZIS ABDILLAH UNIVERSITAS INDONESIA
2
LATAR BELAKANG Tahun 2005, search engine Yahoo! telah mengindeks lebih dari 19.2 milyar dokumen.1 Perubahan jumlah halaman website dari tahun
3
ABDUL AZIS ABDILLAH Saat ini telah dikembangkan banyak sekali metode rangking, tetapi hasil yang diperoleh masih belum optimal. (Tie-Yan Liu, SIGIR, 2008) Salah satu solusi untuk menyelesaikan masalah perangkingan adalah dengan Machine Learning. (Tie-Yan Liu, SIGIR, 2008) Machine Learning adalah metode yang dapat belajar dari data historis sehingga menjadi cerdas atau memiliki kemampuan generalisasi terhadap data baru yang belum dipelajari sebelumnya, misal dalam memprediksi, mengklasifikasi, merangking, dll. UNIVERSITAS INDONESIA
4
Dengan machine learning, kita mencoba mempelajari pola pengguna dalam menentukan relevansi suatu web terhadap suatu query yang diberikan. Topik ini dikenal dengan nama Learning to Rank. Metode SVM yang digunakan untuk menyelesaikan persoalan Learning to Rank yaitu metode Support Vector Regression (SVR).
5
PERUMUSAN MASALAH TUJUAN PENELITIAN
Bagaimana kinerja Learning to Rank menggunakan metode Support Vector Regression (SVR)? TUJUAN PENELITIAN Mencari nilai parameter optimal agar dapat membangun model perangkingan yang optimal untuk masalah Learning to Rank dengan metode SVR. Simulasi kinerja Learning to Rank dengan metode SVR menggunakan dataset LETOR.
6
METODE PENELITIAN Penelitian dilakukan dengan mempelajari karya-karya ilmiah yang disajikan dalam bentuk buku, disertasi ataupun paper yang relevan dengan topik penelitian. Kemudian penelitian dilanjutkan dengan melakukan eksperimen menggunakan software SVMlight terhadap dataset yang digunakan.
7
SUPPORT VECTOR REGRESSION
Support Vector Regression (SVR) merupakan perluasan masalah SVM untuk masalah regresi. Misal diberikan data pembelajaran fungsi linier yang digunakan sebagai fungsi regresi memiliki bentuk umum sebagai berikut: Pada fungsi regresi linier untuk mendapatkan parameter bobot w dan bias b, kita meminimumkan fungsi error quadratic yang diregularisasi berikut ini (Bishop, 2006):
8
Dengan menggantikan fungsi error quadratic dengan fungsi error -insensitive yang diperkenalkan oleh Vapnik, SVM dapat digunakan untuk menyelesaikan masalah regresi (Scholkopf, 2002). untuk mendapatkan parameter bobot w dan bias b pada fungsi regresi linier, fungsi error -insensitive yang diregularisasi berikut ini harus diminimumkan Dimana fungsi error -insensitive didefinisikan sebagai: Dengan
9
Untuk data target ti yang terletak pada -tube akan memenuhi kondisi: Untuk data target ti yang terletak diluar -tube , maka kita membutuhkan variabel slack , (Hamel, 2011) dimana : Sehingga Dengan demikian semua data pembelajaran akan memenuhi
10
meminimumkan fungsi error -insensitive ekuivalen dengan masalah optimasi berikut (Scholkopf, 2002) yang merupakan masalah optimasi pada SVR. Tujuan dari masalah optimasi ini adalah untuk mencari nilai optimal w dan b yang meminimumkan error. Untuk mempresentasikan ke bentuk dual, digunakanlah perkalian Lagrange, dimana merupakan pengali Lagrange yaitu: Dengan
11
Dengan menurunkan L terhadap w, b, sama dengan nol, maka:
Substitusikan hasil turunan tersebut ke persamaan Lagrange, sehingga diperoleh: Dengan demikian bentuk dual dari masalah SVR yaitu:
12
Misalkan merupakan solusi formulasi dual pada masalah SVR, maka vektor bobot w* dapat dinyatakan sebagai : sehingga fungsi linier adalah: Berdasarkan vektor bobot w* hanya data dengan (support vector) yang berperan pada fungsi linier SVR, sehingga dapat ditulis menjadi: Dimana j menunjukkan indeks dari data yang menjadi support vector dan SV merupakan himpunan indeks support vector.
13
Berdasarkan persyaratan Karush-Kuhn-Tucker (Bishop, 2006) Dengan memilih , maka berdasarkan pers 3 didapat dan berdasarkan pers 1 didapat Dengan mensubstitusikan ke akan diperoleh , dimana . Sehingga didapat
14
NON LINIER SVR Jika suatu data di ruang input tidak dapat di pisahkan oleh hyperplane linier. Transformasikan data ke ruang Feature sehingga data tersebut dapat dipisahkan oleh hyperplane linier di ruang Feature. dimana dimensi dari F lebih besar dari dimensi X. Pada kasus data yang nonlinier, memetakan data dari ruang input ke ruang Feature dapat membuat data dipisahkan oleh sebuah hyperplane linier (Scholkopf, 2002). fungsi regresi yang digunakan pada kasus nonlinier adalah
15
fungsi keputusan di ruang Feature dapat dinyatakan sebagai : Karena untuk mengetahui fungsi transformasi yang tepat agar dapat memisahkan data di ruang Feature sangat sulit dan perhitungan dot product di ruang Feature mungkin menjadi sangat besar. Solusinya menggunakan Berikut diberikan contoh penggunaan fungsi Kernel: Kernel polinomial dengan , Tujuan digunakannya fungsi Kernel adalah untuk menggambarkan dot product di ruang Feature. adalah suatu fungsi Kernel dengan fungsi pemetaan yaitu suatu fungsi pemetaan dari R2 ke R3.
16
Sehingga fungsi keputusan dapat dinyatakan sebagai :
dengan Fungsi Kernel yang umum digunakan adalah RBF : Polynomial : Linier :
17
ABDUL AZIS ABDILLAH EKSPERIMEN Percobaan Learning to Rank menggunakan metode Support Vector Regression (SVR). Software yang digunakan yaitu SVMlight.3 Dataset yang digunakan adalah LETOR4 4.0 MQ2008. Spesifikasi komputer yang digunakan untuk eksperimen yaitu Processor Intel Pentium(R) Dual-Core 2.0GHz 1.20 GHz, RAM 3.5 GB dan OS Windows XP SP3. UNIVERSITAS INDONESIA
18
ABDUL AZIS ABDILLAH DATASET LETOR adalah koleksi data untuk learning to rank yang terbuka untuk umum yang diorganisasi oleh microsoft. Contoh dataset LETOR MQ2008 UNIVERSITAS INDONESIA
19
FITUR PADA DATASET No Deskripsi 1 TF of body 17 DL of anchor 33
BM25 of URL 2 TF of anchor 18 DL of title 34 LMIR.ABS of URL 3 TF of title 19 DL of the URL 35 LMIR.DIR of URL 4 TF of URL 20 DL of document 36 LMIR.IM of URL 5 TF of document 21 BM25 of body 37 BM25 of document 6 IDF of body 22 LMIR.ABS of body 38 LMIR.ABS of document 7 IDF of anchor 23 LMIR.DIR of body 39 LMIR.DIR of document 8 IDF of title 24 LMIR.IM of body 40 LMIR.IM of document 9 IDF of URL 25 BM25 of anchor 41 PageRank 10 IDF of document 26 LMIR.ABS of anchor 42 Inlink number 11 TF * IDF of body 27 LMIR.DIR of anchor 43 Outlink number 12 TF * IDF of anchor 28 LMIR.IM of anchor 44 Number of slash in URL 13 TF * IDF of title 29 BM25 of title 45 Length of URL 14 TF * IDF of URL 30 LMIR.ABS of title 46 Number of child page 15 TF * IDF of document 31 LMIR.DIR of title 16 DL of body 32 LMIR.IM of title
20
DESAIN EKSPERIMEN Five Cross Validation FOLD TRAINING VALIDATION TEST
{S1, S2, S3} S4 S5 Fold 2 {S2, S3, S4} S1 Fold 3 {S3, S4, S5} S2 Fold 4 {S4, S5, S1} S3 Fold 5 {S5, S1, S2} FOLD TRAINING VALIDATION TEST Fold 1 9630 2707 2874 Fold 2 9404 2933 Fold 3 8643 3635 Fold 4 8514 3062 Fold 5 9442
21
UKURAN EVALUASI RANGKING
Dataset MQ2008 memiliki tiga label relevansi yaitu 2 (highly relevant), 1 (relevant), 0 (not relevant). Untuk menguji akurasi rangking pada dataset MQ2008, digunakan tiga Ukuran Evaluasi Rangking (Jun Xu, dkk. 2010): Precision at position n untuk query q : misalkan diperoleh hasil perangkingan untuk suatu query q sebagai berikut : {2, 1, 1, 0, 2, 0}, maka sampai bernilai {1, 2/2, 3/3, 3/4, 4/5, 4/6, 5/7}, dimana 2 dan 1 dianggap relevant. Mean Average Precision untuk query q (MAP) : Berdasarkan contoh kita tahu bahwa yang relevan adalah MAP didapat dengan mencari nilai rata-rata AP untuk semua query.
22
Normalized Discount Cumulative Gain at position n (NDCG) :
r(j) merupakan relevansi dari posisi dokumen ke j dari hasil perangkingan, dan Zn merupakan normalisasi yang membuat perfect rangking NDCG bernilai 1.
23
HASIL EKSPERIMEN PADA DATA TRAINING
Parameter MAP C 0.1 0.0001 0.0002 0.0005 0.001
24
HASIL EKSPERIMEN PADA DATA VALI
Parameter MAP C 0.1 0.0001 0.0002 0.0005 0.001
25
ABDUL AZIS ABDILLAH UNIVERSITAS INDONESIA
27
Dari beberapa parameter C yang di uji dengan =0
Dari beberapa parameter C yang di uji dengan =0.1, diperoleh kesimpulan sebagai berikut: Nilai terbaik pada data training diperoleh saat C= dan =0.1 dengan nilai , sedangkan pada data vali diperoleh saat C= dan =0.1 dengan nilai Nilai terbaik pada data training diperoleh saat C= dan =0.1 dengan nilai , sedangkan pada data vali diperoleh saat C= dan =0.1 dengan nilai Nilai terbaik pada data training diperoleh saat C= dan =0.1 dengan nilai , sedangkan pada data vali diperoleh saat C= dan =0.1 dengan nilai Nilai MAP terbaik pada data training diperoleh saat C= dan =0.1 dengan nilai , sedangkan pada data vali diperoleh saat C= dan =0.1 dengan nilai
28
Nilai NDCG@1 terbaik pada data training diperoleh saat C=0
Nilai terbaik pada data training diperoleh saat C= dan =0.1 dengan nilai , sedangkan pada data vali diperoleh saat C= dan =0.1 dengan nilai Nilai terbaik pada data training diperoleh saat C= dan =0.1 dengan nilai , sedangkan pada data vali diperoleh saat C= dan =0.1 dengan nilai Nilai terbaik pada data training diperoleh saat C= dan =0.1 dengan nilai , sedangkan pada data vali diperoleh saat C= dan =0.1 dengan nilai Dapat disimpulkan parameter optimal dari beberapa parameter C yang digunakan, yaitu C= dan =0.1. Parameter MAP C 0.0002 0.1
29
DAFTAR PUSTAKA Bishop, C. M Pattern Recognition and Machine Learning. Springer.Bishop, C.H Pattern Recognition And Machine Learning. Springer. Hang Li Learning to Rank for Information Retrieval and Natural Language Processing. Morgan &Claypool PublishersHang Li Tie-Yan Liu Learning to Rank for Information Retrieval. Springer. Jun Xu,. Tie-Yan Liu,. Hang Li,. Tao Qin,. Wenying Xiong, LETOR:Benchmark Dataset for Research on Learning to Rank for Information Retrieval. SIGIR 2007: Workshop on Learning to Rank for Information Retrieval. Cristianni, Nello & Shawe-taylor, John An Introduction to Support Vector Machines. Cambridge : Cambridge University Press. Scholkopf, B & Smola, A Learning with Kernels. The MIT Press, Cambridge, Mas-sachusetts. Hamel, Lutz Knowledge Discovery with Support Vector Machines. New Jersey: John Wiley & Sons Inc. Witten, I. H,. Frank, Eibe,. Hall, Mark A Data Mining Practical Machine Learning Tools and Techniques. Burlington, USA: Morgan Kaufmann Publishers.
30
Masalah optimasi maksimum margin SVM adalah: Masalah optimasi untuk soft margin SVM adalah (Bishop,2006): dimana C > 0 adalah parameter yang menentukan besarnya penalti akibat kesalahan dalam klasifikasi data. Masalah optimasi SVR adalah: dimana C > 0 adalah parameter yang menentukan besarnya penalti akibat kesalahan dalam klasifikasi data.
Presentasi serupa
© 2024 SlidePlayer.info Inc.
All rights reserved.