Analisis Perbandingan Metode Harmonic Mean dan Local Mean Vector Dalam Penyeleksian Tetangga Pada Algoritma KNN
Main Article Content
Abstract
Algoritma K Nearest Neighbour (KNN) merupakan salah satu algoritma klasifikasi yang telah digunakan pada banyak penelitian, namun KNN memiliki beberapa kekurangan diantaranya adalah pada pemilihan jumlah tetangga terdekat. Jika jumlah tetangga terdekat terlalu kecil maka akan sensitif terhadap derau (noise) dan jika jumlah tetangga terdekat terlalu besar kemungkinan ada tetangga outlier dari kelas lain. Majority Voting juga merupakan metode yang sederhana dan ini bisa jadi masalah jika jarak bervariasi. Salah satu solusi untuk masalah outlier adalah menggunakan Local Mean Vector dengan menambahkan Harmonic Mean untuk membantunya. Penelitian ini bertujuan untuk mengetahui perbandingan kinerja teknik penyeleksian tetangga terakhir yang didapatkan menggunakan Local Mean Vector dan Harmonic Mean. Dari Hasil dari penelitian ini menunjukkan bahwa teknik penyeleksian tetanggal berbasis Local Mean Vector dan Harmonic Mean memberikan akurasi lebih baik yaitu sebesar 0,78 dibandingkan dengan teknik Majority Voting dengan akurasi sebesar 0.75.
Article Details
This work is licensed under a Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License.
References
R. R. Pratama, “Analisis Model Machine Learning Terhadap Pengenalan Aktifitas Manusia,” MATRIK J. Manajemen, Tek. Inform. dan Rekayasa Komput., vol. 19, no. 2, pp. 302–311, 2020, doi: 10.30812/matrik.v19i2.688.
I. Budiman, D. T. Nugrahadi, and R. A. Nugroho, “Implementasi Algoritma K-Nearest Neighbour untuk Prediksi Waktu Kelulusan Mahasiswa,” Pros. SNRT (Seminar Nas. Ris. Ter.), vol. 5662, pp. 9–10, 2016.
W. Hardianti, F. Indriani, and R. A. Nugroho, “Analisis Perbandingan Algoritma Distance-Weighted KNN dan Algoritma KNN pada Prediksi Masa Studi Mahasiswa,” Semin. Nas. Ilmu Komput., vol. 1, pp. 108–117, 2017.
R. A. Supono and M. A. Suprayogi, “Perbandingan Metode TF-ABS dan TF-IDF Pada Klasifikasi Teks Helpdesk Menggunakan K-Nearest Neighbor,” J. RESTI (Rekayasa Sist. dan Teknol. Informasi), vol. 5, no. 5, pp. 911–918, 2021, doi: 10.29207/resti.v5i5.3403.
E. Laksono, A. Basuki, and F. Bachtiar, “Optimization of K Value in KNN Algorithm for Spam and Ham Email Classification,” J. RESTI (Rekayasa Sist. dan Teknol. Informasi), vol. 4, no. 2, pp. 377–383, 2020, doi: 10.29207/resti.v4i2.1845.
R. S. D. Wijaya, Adiwijaya, Andriyan B Suksmono, and Tati LR Mengko, “Segmentasi Citra Kanker Serviks Menggunakan Markov Random Field dan Algoritma K-Means,” J. RESTI (Rekayasa Sist. dan Teknol. Informasi), vol. 5, no. 1, pp. 139–147, 2021, doi: 10.29207/resti.v5i1.2816.
A. Bode, “K-Nearest Neighbor Dengan Feature Selection Menggunakan Backward Elimination Untuk Prediksi Harga Komoditi Kopi Arabika,” Ilk. J. Ilm., vol. 9, no. 2, pp. 188–195, 2017, doi: 10.33096/ilkom.v9i2.139.188-195.
M. Rivki and A. M. Bachtiar, “Implementasi algoritma K-Nearest Neighbor dalam pengklasifikasian follower twitter yang menggunakan Bahasa Indonesia,” J. Sist. Inf., vol. 13, no. 1, pp. 31–37, 2017.
S. Mehta, X. Shen, J. Gou, and D. Niu, “A new nearest centroid neighbor classifier based on k local means using harmonic mean distance,” Inf., vol. 9, no. 9, 2018, doi: 10.3390/info9090234.
J. Gou, T. Xiong, and Y. Kuang, “A novel weighted voting for K-nearest neighbor rule,” J. Comput., vol. 6, no. 5, pp. 833–840, 2011, doi: 10.4304/jcp.6.5.833-840.
K. U. Syaliman, E. B. Nababan, and O. S. Sitompul, “Improving the accuracy of k-nearest neighbor using local mean based and distance weight,” J. Phys. Conf. Ser., vol. 978, no. 1, 2018, doi: 10.1088/1742-6596/978/1/012047.
Y. Mitani and Y. Hamamoto, “A local mean-based nonparametric classifier,” Pattern Recognit. Lett., vol. 27, no. 10, pp. 1151–1159, 2006, doi: 10.1016/j.patrec.2005.12.016.
C. Kasemtaweechok and W. Suwannik, “Prototype selection for k-nearest neighbors classification using geometric median,” ACM Int. Conf. Proceeding Ser., pp. 140–144, 2016, doi: 10.1145/3033288.3033301.
R. R. Rerung, “Penerapan Data Mining dengan Memanfaatkan Metode Association Rule untuk Promosi Produk,” J. Teknol. Rekayasa, vol. 3, no. 1, p. 89, 2018, doi: 10.31544/jtera.v3.i1.2018.89-98.
M. K. Delimayanti, R. Sari, M. Laya, M. R. Faisal, Pahrul, and R. F. Naryanto, “The effect of pre-processing on the classification of twitter’s flood disaster messages using support vector machine algorithm,” Proc. ICAE 2020 - 3rd Int. Conf. Appl. Eng., no. February 2021, 2020, doi: 10.1109/ICAE50557.2020.9350387.
Wahyudi, M. R. Faisal, D. Kartini, I. Budiman, and A. Farmadi, “Effect of Normalization of Genre Music Data on Classification Performance with Random Forest,” J. Data Sci. Softw. Eng., vol. 02, no. 01, pp. 56–63, 2021.
W. A. Ningsih, F. Indriani, and A. Farmadi, “Klasifikasi Detak Jantung Janin dengan Learning Vector Quantization (LVQ),” in Seminar Nasional Ilmu Komputer (SOLITER), 2019, pp. 130–135.
D. A. Nasution, H. H. Khotimah, and N. Chamidah, “Perbandingan Normalisasi Data untuk Klasifikasi Wine Menggunakan Algoritma K-NN,” Comput. Eng. Sci. Syst. J., vol. 4, no. 1, pp. 78-82, 2019, doi: 10.24114/cess.v4i1.11458.
K. Potdar, T. S. Pardawala, and C. D. Pai, “A Comparative Study of Categorical Variable Encoding Techniques for Neural Network Classifiers,” Int. J. Comput. Appl., vol. 175, no. 4, pp. 7– 9, 2017, doi: 10.5120/ijca2017915495.
Suyanto, Machine Learning Tingkat Dasar dan Lanjut. Bandung: INFORMATIKA, 2018.
M. N. Nasir, I. Budiman, and A. Farmadi, “Perbandingan Pengaruh Nilai Centroid Awal pada Algoritma K-Means dan K-Means++ terhadap Hasil Cluster Menggunakan Metode Confusion Matrix,” in Seminar Nasional Ilmu Komputer (SOLITER), 2017, pp. 118–127.
J. Li, S. Fong, Y. Sung, K. Cho, R. Wong, and K. K. L. Wong, “Adaptive swarm cluster- based dynamic multi-objective synthetic minority oversampling technique algorithm for tackling binary imbalanced datasets in biomedical data classification,” BioData Min., vol. 9, no. 1, pp. 1–15, 2016, doi: 10.1186/s13040-016-0117-1.