KOMPRESI DATA.

Slides:



Advertisements
Presentasi serupa
SPESIFIKASI MODEL. Subyek dari bab berikut ini adalah : Bagaimana kita memilih nilai yang sesuai untuk p, d dan q untuk deret runtun waktu yang diberikan?
Advertisements

KEAMANAN KOMPUTER ADITYO NUGROHO,ST TEKNIK PERANGKAT LUNAK UNIVERSITAS PGRI RONGGOLAWE TUBAN PERTEMUAN 3 – LANDASAN MATEMATIKA.
KONSEP DASAR PROBABILITAS
Bab 6. Pengujian Hipotesis
SPESIFIKASI MODEL.
DISTRIBUSI PELUANG.
Matematika Untuk Kriptografi
Perbaikan Citra pada Domain Spasial
Probabilitas Bagian 2.
Bab1.Teori Penarikan Sampel
DISTRIBUSI TEORETIS Tujuan :
Distribusi Hipergeometrik Distribusi Poisson.
DISTRIBUSI DARI FUNGSI VARIABEL RANDOM
Regresi dengan Respon Biner
BAB 2 ATURAN DASAR PROBABILITAS
Peubah Acak (Random Variable)
PENARIKAN SAMPEL & PENDUGAAN PARAMETER
Kompresi Citra dan Reduksi Data
Conditional Probability Bayes Theorem And Independence
Sistem Basis Data.
Bab 4 Pengujian Hipotesis Tentang Rata2
LOGARITMA.
ASSALAMUALAIKUM WR.WB LOGARITMA R A T N.
PELUANG.
Kompresi Citra dan Reduksi Data Dr. Ir. Sumijan, M.Sc Dosen Universitas Putra Indonesia “YPTK”
PROBABILITAS (LANJUTAN)
Bab 5 Distribusi Sampling
Modul VII. PEMILIHAN DATA (SAMPEL) PENELITIAN.
Chapter 1 Mengapa Belajar Statistika?
Kompresi Gambar Klasifikasi Kompresi Teknik Kompresi 1.
Modul 4 : Probabilitas.
PROBABILITA dan HIPOTESIS
Teori Peluang / Probabilitas
KONSEP DASAR PROBABILITAS
KONSEP DASAR PROBABILITAS
KONSEP DASAR PROBABILITAS
Materi Pasca UTS Pengantar Probabilitas (1 )
Bab 4. Teori Penarikan Sampel
PROBABILITAS.
GENETICS ALGORITHM Nelly Indriani W. S.Si., M.T KECERDASAN BUATAN.
PENGANTAR TEKNOLOGI INFORMASI
Pendekatan Probabilitas
DISTRIBUSI SELISIH PROPORSI
Pertemuan 14 Algoritma Genetika.
LOGARITMA.
TEORI PENDUGAAN STATISTIK
Kompresi Teks File.
Peluang Diskrit.
Matematika Diskrit Semester Ganjil TA Kode Huffman.
FITRI UTAMININGRUM, ST, MT
ALGORITMA GENETIKA.
Pertemuan 13 Algoritma Genetika.
PROBABILITAS DAN STATISTIK
KONSEP DASAR PROBABILITAS
LOGARITMA.
Landasan Matematika Untuk Kriptografi
LESSON 5.
STATISTIKA Materi : Pengantar Statistika deskriptif
Landasan Matematika Kriptografi
Bab ii probabilitas.
KOMPRESI CITRA Edy Mulyanto.
PELUANG.
T. Yudi Hadiwandra, M.Kom WA: PROBABILITAS DAN STATISTIK Code : h87p4t
T. Yudi Hadiwandra, M.Kom WA: PROBABILITAS DAN STATISTIK Code : h87p4t
Bab 5 Distribusi Sampling
STATISTIK II Pertemuan 3-4: Metode dan Distribusi Sampling
Biner Bertanda Temu 8.
KONSEP DASAR PROBABILITAS
TEORI PROBABILITAS Disarikan dari : Adawiyah, Ariadi dan sumber lain yang relevan This template is provided by
Sifat – sifat probabilitas kejadian A
Transcript presentasi:

KOMPRESI DATA

Pengantar Teori Informasi Dasar

Review: Logaritma Jika log 𝑎 𝑏=𝑐 , maka 𝑎 𝑐 =𝑏 Dengan 𝑎>0, 𝑎≠1, 𝑏>0 𝑎 disebut bilangan pokok logaritma atau basis 𝑏 disebut bilangan yang dilogaritmakan 𝑐 disebut hasil logaritma Untuk basis atau bilangan pokok 10 boleh tidak ditulis. log 100 = ? log 2 16 = ? log 2 1 8 =?

Review: Logaritma log 𝑎 𝑏 𝑛 =𝑛× log 𝑎 𝑏 log 𝑎 𝑏 = log 𝑐 𝑏 log 𝑐 𝑎 Beberapa sifat logaitma yang digunakan pada bab ini: log 𝑎 𝑏 𝑛 =𝑛× log 𝑎 𝑏 Sehingga: log 𝑎 1 𝑏 = log 𝑎 𝑏 −1 = −log 𝑎 𝑏 log 𝑎 𝑏 = log 𝑐 𝑏 log 𝑐 𝑎 Contoh: log 2 15 = log 10 15 log 10 2 = log 15 log 2 Beberapa nilai log basis 10 yang standar: log 2=0.301 ; log 3=0.477 ; log 5=0.698 ; log 7=0.845

Teori Informasi Dikembangkan oleh Elwood Shannon, electrical engineer di Bell Labs, tahun 1940-an. Menjelaskan batas komunikasi menggunakan teori probabilitas. Menentukan parameter kuantitatif dalam mengukur informasi, yang disebut self-information. Misalkan ada sebuah event A, dengan P(A) adalah peluang terjadinya event A, maka self-information pada event A adalah: 𝑖 𝐴 = log 𝑏 1 𝑃(𝐴) =− log 𝑏 𝑃(𝐴)

Self-Information 𝑖 𝐴 = log 𝑏 1 𝑃(𝐴) =− log 𝑏 𝑃(𝐴) Satuannya tergantung pada basis log yang digunakan: Jika log base = 2, satuannya bits Jika log base = e, satuannya nats Jika log base = 10, satuannya hartleys Contoh: Anjing penjaga Mahasiswa pintar vs malas Tim bola jago vs ga jago

Self-Information 𝑖 𝐴 = log 𝑏 1 𝑃(𝐴) =− log 𝑏 𝑃(𝐴) Jika probabilitas sebuah event itu tinggi, maka jumlah informasi akan rendah Jika probabilitas sebuah event itu rendah, maka jumlah informasi akan tinggi Sesuatu yang sudah pasti terjadi (probabilitas = 1), tidak mengandung infomasi Sesuatu yang tidak pasti, mengandung banyak informasi Contoh: Anjing penjaga Mahasiswa pintar vs malas Tim bola jago vs ga jago

Contoh Gonggongan anjing selama terjadi pencurian memiliki probabilitas yang tinggi, sehingga hal ini memiliki informasi yang sedikit. Jika selama terjadinya pencurian probabilitas anjing menggonggong kecil, maka hal ini akan mengandung banyak informasi. X mahasiswa cerdas, rajin, IPK tinggi. Y mahasiswa bermasalah, pemalas, IPK rendah. Peluang X lulus Rekrutasi Telkom tinggi, ketika terjadi, tidak ada berita penting tentangnya. Peluang Y lulus Rekrutasi Telkom rendah, ketika ia ternyata lulus, ada banyak informasi tentangnya.

Entropi Adalah rata-rata self-information dari sekumpulan event random Menurut Shannon, ”Entropi menunjukkan rata-rata banyaknya simbol biner yang diperlukan untuk mengkodekan source data” Jika informasi dalam bits, maka satuan entropi adalah bits/sample atau bits/simbol Nilai entropi dari sebuah source data = kemampuan maksimum lossless compession untuk mengkodekan source data Jika terdapat sekumpulan event 𝐴 𝑖 , maka entropi dinyatakan oleh:

Menentukan Entropi Source Data Tergantung pada model struktur data yang digunakan Entropi dapat dikurangi jika digunakan model struktur data yang berbeda Semakin kecil entropi sebuah source data, maka tingkat maksimum kompresi yang dapat dicapai pada source data tersebut akan semakin meningkat Artinya, source data tersebut memungkinkan untuk dikompresi dengan lebih baik

Contoh Terdapat source data sebagai berikut: Tentukan entopi data tesebut

Solusi Terdapat 10 simbol, dengan peluang kemunculan masing-masing diestimasi sebagai berikut: P(1) = P(6) = P(7) = P(10) = 1/16 P(2) = P(3) = P(4) = P(5) = P(8) = P(9) = 2/16

Solusi (Lanj.) Source data dapat dipandang setidaknya oleh 2 pendekatan model struktur data. Model 1: Kita pandang setiap simbol sebagai data yang saling independen satu sama lain, sehingga entropi dapat dihitung sbb: Diperoleh entropi 3.25 bits per sampel, artinya pengkodean yang dilakukan dapat mencapai 3.25 bit per sampel, maka totalnya 16 x 3.25 bit = 52 bit

Solusi (Lanj.) Model 2: Lihat aspek korelasi antar sampel yang bertetangga, mulai dari sampel pertama yaitu ‘1’. Hitung data residu dari setiap sampel berdasarkan sampel sebelumnya, sehingga diperoleh rangkaian data residu sbb: Data awal : 1 2 3 2 3 4 5 4 5 6 7 8 9 8 9 10 Data residu : 1 1 1 -1 1 1 1 -1 1 1 1 1 1 -1 1 1

Solusi (Lanj.) Jadi, representasi source data 1 2 3 2 3 4 5 4 5 6 7 8 9 8 9 10 yang terdiri atas 10 simbol, dapat diubah ke dalam bentuk model persamaan dengan data residu (rn): 1 1 1 -1 1 1 1 -1 1 1 1 1 1 -1 1 1 yang terdiri atas 2 simbol (1 dan -1) dengan P(1) = 13/16, dan P(-1) = 3/16 Diperoleh entropi 0.70 bits per sampel

Contoh (2) Terdapat source data: 1 2 1 2 3 3 3 3 1 2 3 3 3 3 1 2 3 3 1 2 Tentukan entropi data dengan menggunakan 2 pendekatan! Petunjuk: Pendekatan 1: data dipandang mengandung 3 simbol (1, 2, 3) Pendekatan 2: data dipandang mengandung 2 simbol (1 2, 3 3)