Digitalisation and the proliferation of online music listening platforms have led to the exponential growth of music data on the Internet, thus necessitating the development of automated systems for data organisation and analysis. In this context, automatic genre classification practices have become a significant approach for the efficiency of music discovery and recommendation processes. While significant progress has been made in genre classification, subgenre classification remains an under-researched area, despite its potential to provide more personalised listening experiences. This study aims to address this gap by focusing on the classification of hip-hop music subgenres, namely boombap, jazzrap and trap, utilising a comprehensive dataset comprising 750 audio files. The study extracts a total of 31 features, encompassing both spectral and psychoacoustic characteristics. Machine learning models such as Logistic Regression, K-Nearest Neighbours, Decision Tree and Random Forest are employed, along with the Artificial Neural Network, which attains the highest accuracy of 85%. The findings reveal that subgenre classification poses challenges, especially for categories such as jazzrap and boombap, which share overlapping musical characteristics. In contrast, trap with different timbral characteristics was classified with higher accuracy. This study contributes to the scant research on subgenre classification by underscoring the viability of employing deep learning techniques to enhance the precision of comprehensive datasets and intricate subgenre categorisations. Moreover, this research underscores the pivotal role of subgenre classification within the ambit of digital music platforms. The accurate identification of subgenres not only elevates the overall auditory experience for users but also facilitates the discovery of music selections that resonate closely with their individual preferences.
machine learning deep learning music subgenre classification music information retrieval music genre classification
Dijitalleşme ve çevrimiçi müzik dinleme platformlarının yaygınlaşması, internet ortamında müzik verilerinin katlanarak büyümesine yol açmıştır. Bu durum veri organizasyonu ve analizi için otomatik sistemlerin gerekliliğini ortaya koymuştur. Bu bağlamda, otomatik tür sınıflandırma pratikleri, müzik keşif ve tavsiye süreçlerinin verimliliği adına önemli bir yaklaşım haline gelmiştir. Tür sınıflandırmasında önemli ilerlemeler kaydedilmiş olsa da, daha kişiselleştirilmiş dinleme deneyimleri sunma potansiyeline rağmen alt tür sınıflandırması daha az araştırılmış bir alan olmaya devam etmektedir. Çalışma, 750 ses dosyasından oluşan bir veri kümesi kullanarak hip hop müzik alt türlerinin -boombap, jazzrap ve trap- sınıflandırılmasını ele almaktadır. Çalışmada, spektral ve psikoakustik öznitelikler de dahil olmak üzere toplam 31 özellik çıkarılmıştır. Lojistik Regresyon, K-En Yakın Komşular, Karar Ağacı ve Rastgele Orman gibi makine öğrenimi modellerinin yanı sıra %85’lik en yüksek doğruluğa ulaşan Yapay Sinir Ağı kullanılmıştır. Bulgular, alt tür sınıflandırmasının, özellikle örtüşen müzikal özellikleri paylaşan jazzrap ve boombap gibi kategoriler için zorluklar yarattığını ortaya koymaktadır. Buna karşılık, farklı tınısal özelliklere sahip trap daha yüksek doğrulukla sınıflandırılmıştır. Çalışma, alt tür sınıflandırması konusundaki sınırlı araştırmayı geliştirmekte ve derin öğrenme tekniklerinin kapsamlı veri kümelerinde ve karmaşık alt tür sınıflandırmalarında hassasiyeti artırmada umut verici şekilde uygulanabilirliğini vurgulamaktadır. Ayrıca bu araştırma, dijital müzik platformları bağlamında alt tür sınıflandırmasının hayati önemini vurgulamaktadır. Alt türlerin doğru bir şekilde tanımlanması, kullanıcılar için genel işitsel deneyimi geliştirmekle kalmaz, aynı zamanda bireysel tercihleriyle yakından uyumlu müzik seçimlerini keşfetmelerini de kolaylaştırmaktadır.
makine öğrenmesi derin öğrenme müzikte alt tür sınıflandırma müzik sorgulama sistemleri müzikte tür sınıflandırma
Primary Language | English |
---|---|
Subjects | Sound and Music Computing, Music Technology and Recording |
Journal Section | Research article |
Authors | |
Publication Date | April 30, 2025 |
Submission Date | January 21, 2025 |
Acceptance Date | March 14, 2025 |
Published in Issue | Year 2025 Volume: 10 Issue: 2 |