Académique Documents
Professionnel Documents
Culture Documents
diberikan.
Urutkan objek objek kedalam kelompok yang memiliki jarak terkecil.
Kumpulkan kategori Y (Klasifikasi nearest neighbor).
Dengan kategori nearest neighbor yang paling banyak, maka dapat diprediksikan nilai
query instance yang telah dihitung.
Perlu untuk menentukan nilai k yang optimal sehingga untuk menyatakan jumlah
2.
Contoh 2 :
Mengklasifikasikan suatu nilai dalam suatu mata kuliah di dalam 1 semester.
1. Terdapat data sebagai berikut :
Page 2 of 35
2.
Akan dicari untuk suatu nilai dimana terdapat suatu contoh soal seperti dibawah
ini, dimana k=5 (k merupakan jarak tetangga yang paling dekat), kita dapat
mencari nilai dengan langkah seperti berikut :
a) Menentukan parameter K (misalkan saja kita menggunakan K=5).
b) Menghitung kuadrat dari jarak Euclid (Queri-Instace) dimana masing
masing data yang telah ditentukan, dengan data seperti berikut.
3.
Langkah ke 2 menghitung kuadrat dari jarak Euclid (Queri-Instace) dimana masingmasing data yang telah ditentukan, dengan data tersebut. Menentukan peringkat
dengan menggunakan K=5 dan menentukan nilai final/nilai akhir. Nilai final atau
akhir didapat dari nilai yang paling banyak keluar selama K=5. Kemudian
mengurutkan objek-objek termasuk ke dalam kelompok yangmempunyai jarak euclid
terkecil.
Page 3 of 35
Langkah ke 2 menghitung kuadrat dari jarak Euclid (Queri-Instace) dimana masingmasing data yang telah ditentukan, dengan data seperti berikut. Menentukan
peringkat dengan menggunakan K=5 dan menentukan nilai final atau nilai akhir.
Nilai final/akhir didapat dari nilai yang paling banyak keluar selama K=5. Kemudian
mengurutkan objek-objek termasuk ke dalam kelompok yangmempunyai jarak euclid
terkecil.
Mengumulkan kategori yang mayoritas (paling banyak keluar) selama kita
menggunakan K=5. Dimana peringkat 15 ini merupakan peringkat yang bagus
dan 6-10 ini merupakan peringkat yang paling jelek (jarak yang paling jauh).
Page 4 of 35
Langkah ke 2 menghitung kuadrat dari jarak Euclid (Queri-Instace) dimana masingmasing data yang telah ditentukan, dengan data seperti berikut. Menentukan
peringkat dengan menggunakan K=5 dan menentukan nilai final atau nilai akhir.
Nilai final atau akhir didapat dari nilai yang paling banyak keluar selama K=5.
Kemudian mengurutkan objek-objek termasuk ke dalam kelompok yangmempunyai
jarak euclid terkecil.
Mengumulkan kategori yang mayoritas (paling banyak keluar) selama kita
menggunakan K=5. Dimana peringkat 1-5 ini merupakan peringkat yang bagus
dan 6-10 ini merupakan peringkat yang paling jelek (jarak yang paling jauh).
Page 5 of 35
Didalam hasil nilai final atau akhir ini jika terdapat (kita menemukan) di suatu data
K=5 terdapat 2 data yang sama (nilai B dan A) dan memiliki jumlah mayoritas maka
dapat dipilih salah satu dari data tersebut (biasa A atau B).
Langkah ke 2 menghitung kuadrat dari jarak Euclid (Queri-Instace) dimana masingmasing data yang telah ditentukan, dengan data seperti berikut. Menentukan
peringkat dengan menggunakan K=5 dan menentukan nilai final/nilai akhir. Nilai
final atau akhir didapat dari nilai yang paling banyak keluar selama K=5. Kemudian
mengurutkan objek-objek termasuk ke dalam kelompok yangmempunyai jarak euclid
terkecil.
Mengumulkan kategori yang mayoritas (paling banyak keluar) selama kita
menggunakan K=5. Dimana peringkat 1-5 ini merupakan peringkat yang bagus
dan 6-10 ini merupakan peringkat yang paling jelek (jarak yang paling jauh).
B.6. Kesimpulan
Hasil dari langkah 1 dan 2 ini dikerjakan dari soal nomor 1 hingga soal nomor 4, dengan
menggunakan K=5 (k merupakan tetangga terdekat dari suatu data) maka akan didapat nilai
final sebagai berikut :
Page 6 of 35
P(C|X) =
Keterangan :
Page 7 of 35
1.
2.
3.
4.
5.
6.
7.
4.
tinggi.
Kelemahan dari Klasifikasi Nave Bayes :
1. Akibat karena diasumsikan bahwa Nave Bayes itu bersifat independen maka memiliki
konsekuensi, antara lain Perkiraan kemungkinan kelas yang tidak akurat, Batasan atau
threshold harus ditentukan secara manual dan bukan secara analitis. Dalam realita,
keterkaitan itu ada.
2. Keterkaitan tersebut tidak dapat dimodelkan oleh Naive Bayesian Classifier.
B.4. Studi Kasus
B.4.1. Contoh Kasus 1 : Untuk Jenis Data Diskret
Diketahui : terdapat data-data pelanggan pembelian Motor Honda, sebagai berikut :
Id-Pelanggan
Pendapatan
Peringkat Kredit
Status Membeli
Motor
Honda-001
Honda-002
Honda-003
Honda-004
Honda-005
Honda-006
Honda-007
Honda-008
Honda-009
Tinggi
Rendah
Rendah
Sedang
Tinggi
Tinggi
Sedang
Sedang
Tinggi
Bagus
Cukup
Bagus
Cukup
Bagus
Cukup
Bagus
Bagus
Cukup
Ya
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Ya
Ya
Page 8 of 35
Pertanyaan-Pertanyaan :
1. Carilah peluang seorang pelanggan membeli Motor Honda dengan syarat Pendapatan
pelanggan tersebut Tinggi dan Peringkat Kredit tersebut Cukup ?
2. Carilah peluang seorang pelanggan membeli Motor Honda dengan syarat Pendapatan
pelanggan tersebut Sedang dan Peringkat Kredit tersebut Bagus ?
B.4.2. Penyelesaian Contoh Kasus 1 : Untuk Jenis Data Diskret
Pertanyaan No. 1 :
Terdapat dua kelas dari klasifikasi yang dibentuk, yaitu :
C1 = Membeli Motor = Ya
C2 = Membeli Motor = Tidak
Misal terdapat data X (belum diketahui kelasnya)
X = (Pendapatan = Tinggi, Peringkat Kredit = Cukup)
Langkah-langkah Perhitungan, sebagai berikut :
1. Mencari P(Ci)
P(Ci) merupakan prior probability untuk setiap kelas berdasar data, yaitu :
P(Ci) =
P(C1) = 5/9 = 0.556
P(C2) = 4/9 = 0.444
2. Menghitung P(Xj|Ci) untuk i=1,2 dan j=1,2
P(Xj|Ci) =
a. Untuk X1 = Pendapatan = Tinggi
P(X1|C1) = = = 0.400
P(X1|C2) = = = 0.500
b. Untuk X2 = Peringkat Kredit = Cukup
P(X2|C1) = = = 0.400
P(X2|C2) = = = 0.500
3. Menghitung P(X|Ci)
P(X| Membeli Motor = Ya) = 0.400 x 0.400 = 0.160
P(X| Membeli Motor = Tidak) = 0.500 x 0.500 = 0.250
4. Menghitung P(X|Ci) x P(Ci)
P(X|Membeli Motor = Ya) x P(Membeli Motor = Ya)
= 0.160 x 0.556 = 0.089
P(X|Membeli Motor = Tidak) x P(Membeli Motor = Tidak)
= 0.250 x 0.444 = 0.111
Pertanyaan No. 2 :
Terdapat dua kelas dari klasifikasi yang dibentuk, yaitu :
C1 = Membeli Motor = Ya
C2 = Membeli Motor = Tidak
Misal terdapat data X (belum diketahui kelasnya)
X = (Pendapatan = Sedang, Peringkat Kredit = Bagus)
Langkah-langkah Perhitungan, sebagai berikut :
1. Mencari P(Ci)
P(Ci) merupakan prior probability untuk setiap kelas berdasar data, yaitu :
P(Ci) =
Page 9 of 35
3.
4.
Pendapatan
Peringkat Kredit
Status Membeli
Motor
Honda-001
Honda-002
Honda-003
Honda-004
Honda-005
Honda-006
Honda-007
Honda-008
Honda-009
1200
400
290
740
1009
1650
590
980
1420
Bagus
Cukup
Bagus
Cukup
Bagus
Cukup
Bagus
Bagus
Cukup
Ya
Tidak
Ya
Ya
Tidak
Tidak
Tidak
Ya
Ya
Pertanyaan-Pertanyaan :
1. Carilah peluang seorang pelanggan membeli Motor Honda dengan syarat Pendapatan
pelanggan = 1500 dan Peringkat Kredit tersebut Cukup ?
2. Carilah peluang seorang pelanggan membeli Motor Honda dengan syarat Pendapatan
pelanggan = 850 dan Peringkat Kredit tersebut Bagus ?
B.4.4. Penyelesaian Contoh Kasus 2 : Untuk Jenis Data Kontinu
Pertanyaan No. 1 :
Terdapat dua kelas dari klasifikasi yang dibentuk, yaitu :
C1 = Membeli Motor = Ya
C2 = Membeli Motor = Tidak
Misal terdapat data X (belum diketahui kelasnya)
X = (Pendapatan = 1500, Peringkat Kredit = Cukup)
Page 10 of 35
3.
4.
Pertanyaan No. 2 :
Terdapat dua kelas dari klasifikasi yang dibentuk, yaitu :
C1 = Membeli Motor = Ya
C2 = Membeli Motor = Tidak
Misal terdapat data X (belum diketahui kelasnya)
X = (Pendapatan = 850, Peringkat Kredit = Bagus)
Langkah-langkah Perhitungan, sebagai berikut :
1. Mencari P(Ci)
P(Ci) merupakan prior probability untuk setiap kelas berdasar data, yaitu :
P(Ci) =
P(C1) = 5/9 = 0.556
P(C2) = 4/9 = 0.444
2. Menghitung P(Xj|Ci) untuk i=1,2 dan j=1,2
P(Xj|Ci) =
a. Untuk X1 = Pendapatan = 850
P(X1|C1) =
= = 0.000908987
P(X1|C1) =
Page 11 of 35
= = 0.000715985
b.
Page 12 of 35
Dr. Taufik Fuadi Abidin, S.Si., M.Tech (2010). Nave Bayesiian Cllassiiffiier. Banda Aceh :
Program Studi Teknik Informatika, FMIPA Universitas Syiah Kuala.
Han, J., and Kamber M. (2000). Data Mining, Concept and Techniques. New York,
NY : Morgan Kaufmann.
Prof. DR. Sudjana., M.A., M.Sc (1996). Metoda Statistika, Edisi ke-6. Bandung : Tarsito.
C. Klasifikasi Iterative Dichotomizer 3 (ID3)
C.1. Pengertian
Algoritma ID3 (Iterative Dichotomizer 3) merupakan salah satu algoritma untuk pohon
keputusan yang dapat digunakan untuk proses klasifikasi suatu data. Algoritma ini
merupakan algoritma pohon keputusan yang paling dasar (atau dapat dibilang tertua).
Algoritma ID3 diperkenalkan atau dikembangkan pertama kali oleh J. Ross Quinlan pada
tahun 1979. Aturan-aturan yang dihasilkan oleh ID3 mempunyai relasi yang hirarkis seperti
halnya sebuah pohon, mempunyai akar, cabang, dan daun. Beberapa peneliti menyebut
struktur model yang dihasilkan ID3 sebagai pohon keputusan (decision tree), sementara
peneliti yang lain menyebutnya pohon aturan (rule tree).
Algoritma pada metode ini berbasis pada Occams Razor : lebih memilih pohon
keputusan yang lebih kecil (teori sederhana) dibanding yang lebih besar. Tetapi metode ini
tidak dapat selalu menghasilkan pohon keputusan yang paling kecil dan karena itu Occams
Razor bersifat heuristik. Occams Razor diformalisasi menggunakan konsep dari entropi
informasi.
C.2. Algoritma
Cara Kerja Algoritma ID3 :
1. Pemilihan atribut dengan menggunakan Information Gain.
2. Pilih atribut yang nilai gainnya paling besar.
3. Buat simpul yang berisi atribut tersebut.
4. Proses perhitungan Information Gain akan terus dilaksanakan sampai semua data masuk
ke dalam kelas yang sama, sedangkan atribut yang telah dipilih tidak diikutkan lagi
dalam perhitungan nilai information gain. Gain mengukur seberapa baik suatu atribut
memisahkan training example ke dalam kelas target. Atribut dengan informasi tertinggi
akan dipilih. Dengan tujuan untuk mendefinisikan gain, pertama-tama gunakan ide dari
teori informasi yang disebut entropi. Entropi mengukur jumlah dari informasi.
Entropy Information Gain :
Sebuah obyek yang diklasifikasikan dalam pohon harus diuji nilai entropinya. Entropi
sendiri adalah ukuran dari teori informasi yang dapat mengetahui karakteristik dari impuryt
Page 13 of 35
dan homogenity dari kumpulan data. Dari nilai entropi tersebut lalu dihitung nilai
information gain (IG) masing-masing atribut.
Rumus entropi informasi :
Entropy(S) = ( -p+ log2p+ ) + ( -p- log2p- )
Keterangan :
S = himpunan kasus atau ruang (data) sampel yang digunakan untuk training.
p+ = jumlah yang bersolusi positif (mendukung) pada data sampel untuk kriteria tertentu.
p- = jumlah yang bersolusi negatif (tidak mendukung) pada data sampel untuk kriteria
tertentu.
Dari rumus entropi di atas dapat disimpulkan bahwa definisi dari Entropy(S) adalah
jumlah bit yang diperkirakan dibutuhkan untuk mengekstrak suatu kelas ( + atau - ) dari
sejumlah data acak pada suatu ruang sampel S. Entropi dapat dikatakan sebagai kebutuhan
bit untuk menyatakan suatu kelas. Semakin kecil nilai dari suatu entropi, maka semakin baik
digunakan dalam mengekstraksi suatu kelas.
Panjang kode untuk menyatakan informasi secara optimal adalah log2p bits untuk
message yang mempunyai probabilitas p, sehingga jumlah bit yang diperkirakan untuk
mengekstraksi S ke dalam kelas adalah ( -p+ log2p+ ) + ( -p- log2p- ).
Information Gain :
Selanjutnya adalah mengukur efektivitas suatu atribut dalam mengklasifikasikan data.
Ukuran efektivitas ini yang disebut sebagai information gain.
Rumus Informasi Gain :
Gain(S,A) = Entropy(S) -
Keterangan :
A = atribut
V = suatu nilai yang mungkin untuk atribut A
|Sv| = jumlah sampel untuk nilai v
|S| = jumlah seluruh sampel data
Entropy(Sv) = entropi untuk sampel-sampel yang memiliki nilai v
Entropy(S) = 0 jika semua contoh pada S berada dalam kelas yang sama
Entropy(S) = 1 jika semua jumlah contoh positif dan jumlah negative dalam S adalah sama
Entropy(S) = <1 jika jumlah contoh positif dan negative dalam S tidak sama.
Algoritma ID3 :
Input = sampel training, label training, atribut
1.
2.
Page 14 of 35
3.
Jika semua sampel bernilai negatif, berhenti dengan suatu pohon dengan satu simpul
4.
5.
gain ratio).
Atribut keputusan untuk simpul akar A.
Untuk setiap nilai vi, yang mungkin untuk A :
Tambahkan cabang di bawah akar yang berhubungan dengan A = vi.
Tentukan sampel Svi, sebagai subset dari sampel yang mempunyai nilai v i,
untuk atribut A.
Jika sampel Svi kosong :
Di bawah cabang tambahkan simpul daun dengan label = nilai terbanyak
yang ada pada label training.
Yang lain, tambah cabang baru di bawah cabang yang sekarang C4.5
e.
Deskripsi atribut nilai, atribut yang sama harus mendeskripsikan tiap contoh dan
2.
3.
4.
5.
test case yang cukup untuk membedakan pola yang valid dari peluang suatu kejadian.
Pemilihan atribut pada ID3 dilakukan dengan properti statistik, yang disebut dengan
information gain. Gain mengukur seberapa baik suatu atribut memisahkan training
example ke dalam kelas target. Atribut dengan informasi tertinggi akan dipilih. Dengan
tujuan untuk mendefinisikan gain, pertama-tama digunakanlah ide dari teori informasi
yang disebut entropi. Entropi mengukur jumlah dari informasi yang ada pada atribut.
3.
Kelemahan :
1.
2.
3.
Jika contoh yang diteliti terlalu kecil / sederhana, dapat membuat data over-classified.
Hanya satu atribut yang dapat dites dalam satu waktu untuk membuat keputusan.
Mengelompokkan data yang berkelanjutan mungkin terhitung mahal, sebanyak pohon
yang harus dibuat untuk melihat dimana menghentikan proses kelanjutannya.
IPK
Psikolo
Wawanca
Diterim
gi
ra
Bagus
Tinggi
Baik
Bagus
Sedang
Baik
Bagus
Sedang
Buruk
Bagus
Rendah
Buruk
Cukup
Tinggi
Baik
Cukup
Sedang
Baik
Cukup
Sedang
Buruk
Cukup Rendah
Buruk
Kurang
Tinggi
Baik
Kurang Sedang
Buruk
Kurang Rendah
Baik
Dari table data di atas, dapat dipecah menjadi :
Ya
Ya
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
IPK
Bagus
Bagus
Bagus
P4
P5
P6
P7
P8
P9
P10
P11
Langkah-2.
Bagus
Cukup
Cukup
Cukup
Cukup
Kurang
Kurang
Kurang
Rendah
Tinggi
Sedang
Sedang
Rendah
Tinggi
Sedang
Rendah
Buruk
Baik
Baik
Buruk
Buruk
Baik
Buruk
Baik
Tidak
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
Langkah-3.
Diasumsikan :
Atribut Diterima (Ya) disimbolkan dengan posistif (+)
Atribut Ditolak (Tidak) disimbolkan dengan negatif (-)
Values (IPK) = Bagus, Cukup, Kurang
S = Sampel
|S| = [8+, 3-] = 11
|Sbagus| = [3+, 1-] = 4
|Scukup| = [3+, 1-] = 4
|Skurang| = [2+, 1-] = 3
Menghitung nilai entropy :
Entropy(S) = ( -p+ log2p+ ) + ( -p- log2p- )
Entropy(S) = ( -jumlah pelamar diterima / jumlah pelamar (IPK) *
log2 jumlah pelamar diterima / jumlah pelamar (IPK) ) + ( -jumlah
pelamar ditolak / jumlah pelamar (IPK) * log 2 - jumlah pelamar
ditolak / jumlah pelamar (IPK) )
Entropy(Sbagus)
=
= (-0,75 * -0,41504) + (-0,25 * -2)
= 0,311278 + 0,5 = 0,811278
Entropy(Scukup)
=
= (-0,75 * -0,41504) + (-0,25 * -2)
= 0,311278 + 0,5 = 0,811278
Entropy(Skurang)
Page 18 of 35
Gain(S,IPK)
Diasumsikan :
Atribut Diterima (Ya) disimbolkan dengan posistif (+)
Atribut Ditolak (Tidak) disimbolkan dengan negatif (-)
Values (Psikologi) = Tinggi, Sedang, Rendah
S = Sampel
|S| = [8+, 3-] = 11
|Stinggi| = [3+, 0-] = 3
|Ssedang| = [4+, 1-] = 5
Page 19 of 35
=
= (-1 * 0) + (0 * ~)
=0+~=~
Entropy(Ssedang)
=
= (-0,8 * -0,32193) + (-0,2 * -2,32193)
= 0,257542 + 0,464386 = 0,721928
Entropy(Srendah)
Page 20 of 35
Langkah-7.
Page 21 of 35
Entropy(Sbaik) =
= (-1 * 0) + (0 * ~)
=0+~=~
Entropy(Sburuk) =
= (-0,4 * -1,32193) + (-0,6 * -0,73697)
= 0,528771 + 0,442179 = 0,970951
Langkah-8.
(Entropy(Sburuk)
Entropy(S))
Entropy(Sburuk))
= 0,845351 (6/11 * ~) (5/11 * 0,970951)
= 0,845351 0 0,44134 = 0,40401
Langkah-9.
Catatan :
Gambar di atas hanya gambaran awal saja (hanya permisalan
saja). Dari pohon keputusan level 1 iterasi 1 yang dijabarkan di
Page 24 of 35
atas, urutan antara atribut Psikologi dan IPK dapat ditukar. Yang
terpenting adalah atribut Psikologi dan IPK merupakan turunan
dari root Wawancara.
Selanjutnya setelah mengetahui bahwa sampel Baik di atribut
Wawancara semua memiliki kelas Ya (diterima), maka dapat
disimpulkan seluruh pelamar dengan hasil wawancara baik, entah
hasil psikologinya tinggi, sedang, atau kurang ataupun nilai IPK
bagus, cukup, atau kurang akan diterima menjadi pegawai. Hal ini
dituliskan sebagai berikut :
Pelamar IPK
Psikologi
P1
Bagus Tinggi
P2
Cukup Tinggi
P3
Kurang Tinggi
P4
Bagus Sedang
P5
Cukup Sedang
P6
Kurang Sedang
P7
Bagus Rendah
P8
Cukup Rendah
P9
Kurang Rendah
Dari table di atas, terlihat
Wawancara Diterima
Baik
Ya
Baik
Ya
Baik
Ya
Baik
Ya
Baik
Ya
Baik
Ya
Baik
Ya
Baik
Ya
Baik
Ya
munculnya 3 kombinasi baru (yang
Langkah-11.
IPK
P1
P2
P3
P4
P5
P6
P7
P8
P9
P10
P11
Bagus
Bagus
Bagus
Bagus
Cukup
Cukup
Cukup
Cukup
Kurang
Kurang
Kurang
Tinggi
Sedang
Sedang
Rendah
Tinggi
Sedang
Sedang
Rendah
Tinggi
Sedang
Rendah
Baik
Baik
Buruk
Buruk
Baik
Baik
Buruk
Buruk
Baik
Buruk
Baik
Ya
Ya
Ya
Tidak
Ya
Ya
Ya
Tidak
Ya
Tidak
Ya
=
= 0,528771 + 0,442179 = 0,970951
Entropy(Sbagus) =
= 0,5 + 0,5 = 1
Entropy(Scukup) =
= 0,5 + 0,5 = 1
Entropy(Skurang) =
=~+0=~
Gain(S, IPK)
=
= 0,528771 + 0,442179 = 0,970951
Entropy(Stinggi) =
=~+~=~
Entropy(Ssedang) =
= 0,389975 + 0,528321 = 0,918296
Entropy(Srendah) =
=~+0=~
Gain(S, Psi)
P3
Kurang Tinggi
Baik
Ya
P4
Bagus Sedang
Baik
Ya
P5
Cukup Sedang
Baik
Ya
P6
Kurang Sedang
Baik
Ya
P7
Bagus Rendah
Baik
Ya
P8
Cukup Rendah
Baik
Ya
P9
Kurang Rendah
Baik
Ya
P10
Bagus Sedang
Buruk
Ya
P11
Cukup Sedang
Buruk
Ya
P12
Kurang Sedang
Buruk
Tidak
P13
Bagus Rendah
Buruk
Tidak
P14
Cukup Rendah
Buruk
Tidak
Dari table di atas, atribut Tinggi di Psikologi tidak ditemukan,
sehingga nilai Tinggi pada Sburuk = [2+, 3-] = 0, yang berarti nilai
Tinggi tidak memiliki kombinasi dengan wawancara buruk.
Menurut algoritma ID3, karena nilai tinggi = 0, maka perlu dibuat 1
leaf node (simpul yang tidak memiliki anak di bawahnya) dengan
label yang paling sering muncul pada Sburuk, yaitu Tidak
sehingga terbentuk pohon baru :
IPK
Bagus
Cukup
Kurang
Bagus
Psikologi
Tinggi
Tinggi
Tinggi
Sedang
Wawancara
Baik
Baik
Baik
Baik
Diterima
Ya
Ya
Ya
Ya
Page 28 of 35
P5
Cukup Sedang
Baik
Ya
P6
Kurang Sedang
Baik
Ya
P7
Bagus Rendah
Baik
Ya
P8
Cukup Rendah
Baik
Ya
P9
Kurang Rendah
Baik
Ya
P10
Bagus Sedang
Buruk
Ya
P11
Cukup Sedang
Buruk
Ya
P12
Bagus Tinggi
Buruk
Tidak
P13
Cukup Tinggi
Buruk
Tidak
P14
Kurang Tinggi
Buruk
Tidak
P15
Kurang Sedang
Buruk
Tidak
P16
Bagus Rendah
Buruk
Tidak
P17
Cukup Rendah
Buruk
Tidak
Dari table di atas, terlihat munculnya 3 kombinasi baru (yang
belum ada dalam table pertama). Sehingga hanya kurang 1
kombinasi yang belum ditemukan.
Atribut Sedang :
Selanjutnya adalah mengecek kembali jumlah pelamar yang
memiliki nilai psikologi sedang dengan kombinasi wawancara buruk
terdapat 2 pelamar diterima dan 1 pelamar ditolak.
Pelamar
P1
P2
P3
P4
P5
P6
P7
P8
P9
P10
P11
P12
P13
P14
P15
P16
P17
IPK
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Bagus
Cukup
Kurang
Kurang
Bagus
Cukup
Psikologi
Tinggi
Tinggi
Tinggi
Sedang
Sedang
Sedang
Rendah
Rendah
Rendah
Sedang
Sedang
Tinggi
Tinggi
Tinggi
Sedang
Rendah
Rendah
Wawancara
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Diterima
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Page 29 of 35
IPK
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Bagus
Cukup
Kurang
Kurang
Bagus
Cukup
Psikologi
Tinggi
Tinggi
Tinggi
Sedang
Sedang
Sedang
Rendah
Rendah
Rendah
Sedang
Sedang
Tinggi
Tinggi
Tinggi
Sedang
Rendah
Rendah
Wawancara
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Diterima
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Page 30 of 35
Selanjutnya hanya tersisa atribut IPK, dan leaf node yang kosong
hanya atribut sedang, maka atribut IPK akan menjadi root terakhir di
bawah leaf node sedang.
Page 31 of 35
IPK
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Bagus
Cukup
Kurang
Kurang
Bagus
Cukup
Psikologi
Tinggi
Tinggi
Tinggi
Sedang
Sedang
Sedang
Rendah
Rendah
Rendah
Sedang
Sedang
Tinggi
Tinggi
Tinggi
Sedang
Rendah
Rendah
Wawancara
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Diterima
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Atribut Cukup :
Page 32 of 35
IPK
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Bagus
Cukup
Kurang
Kurang
Bagus
Cukup
Psikologi
Tinggi
Tinggi
Tinggi
Sedang
Sedang
Sedang
Rendah
Rendah
Rendah
Sedang
Sedang
Tinggi
Tinggi
Tinggi
Sedang
Rendah
Rendah
Wawancara
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Diterima
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Page 33 of 35
Atribut Kurang :
Dari table terdapat 1 pelamar dengan nilai wawancara buruk,
psikologi sedang, IPK rendah yang ditolak.
Pelamar
P1
P2
P3
P4
P5
P6
P7
P8
P9
P10
P11
P12
P13
P14
P15
P16
P17
IPK
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Bagus
Cukup
Kurang
Kurang
Bagus
Cukup
Psikologi
Tinggi
Tinggi
Tinggi
Sedang
Sedang
Sedang
Rendah
Rendah
Rendah
Sedang
Sedang
Tinggi
Tinggi
Tinggi
Sedang
Rendah
Rendah
Wawancara
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Diterima
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Page 34 of 35
IPK
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Kurang
Bagus
Cukup
Bagus
Cukup
Kurang
Kurang
Bagus
Cukup
Kurang
Psikologi
Tinggi
Tinggi
Tinggi
Sedang
Sedang
Sedang
Rendah
Rendah
Rendah
Sedang
Sedang
Tinggi
Tinggi
Tinggi
Sedang
Rendah
Rendah
Rendah
Wawancara
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Baik
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Buruk
Diterima
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Ya
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
Tidak
C.5. Kesimpulan
1. Wawancara = Baik ^ (Psikologi = Tinggi v Psikologi = Sedang v Psikologi
2.
3.
4.
Cukup) Diterima
Wawancara
=
Buruk
Ditolak
Page 35 of 35