Please use this identifier to cite or link to this item:
http://ir.buu.ac.th/dspace/handle/1513/1320| Title: | Using Convolutional Neural Networks for Creating Models to Tag Anime Images การใช้โครงข่ายประสาทเทียมแบบคอนโวลูชันสำหรับสร้างโมเดลในการแท็กภาพอนิเมะ |
| Authors: | Adithep Phompha อดิเทพ พรหมพา SUNISA RIMCHAROEN สุนิสา ริมเจริญ Burapha University SUNISA RIMCHAROEN สุนิสา ริมเจริญ rsunisa@buu.ac.th rsunisa@buu.ac.th |
| Keywords: | อนิเมะ แท็ก CNN GCN ResNET ResNeXT EfficientNet Multi-label Anime Tag CNN GCN ResNET ResNeXT EfficientNet Multi-label |
| Issue Date: | 11 |
| Publisher: | Burapha University |
| Abstract: | Recently, there are websites that provide anime artworks for artists who search for inspiration to create their own works. Unfortunately, tags of anime images lack clear structures, and some images are insufficiently tagged. This reduces the chances of the artists to find the specific images they need and they might lose their chances of producing their best work. To solve this problem, we present using the ML-GCN model, a multi-label classification, to improve the correctness and completeness of anime image tagging. The core structure of this model consists of Graph Convolutional Networks (GCN) and Convolutional Neural Networks (CNN). In this study, we compared three convolutional neural network algorithms (ResNET, ResNeXT, and EfficientNet) to determine which algorithm more accurately classifies anime image tags. The experimental results show that ResNeXT yields a higher mean average precision (mAP) than ResNET and EfficientNet, indicating that ResNeXT is better suited for apply with the ML-GCN model in classifying anime image tags. ในปัจจุบันมีเว็บไซต์ซึ่งเป็นแหล่งรวมภาพผลงานอนิเมะให้นักวาดภาพหาแรงบันดาลใจในการสร้างผลงานของตน แต่แท็กของภาพอนิมะไม่มีรูปแบบที่ชัดเจน บางภาพอนิเมะถูกกำหนดแท็กไม่เพียงพอ ทำให้นักวาดภาพที่เข้ามาหาแรงบันดาลใจมีโอกาสค้นหาเจอภาพที่ต้องการน้อยลง พวกเขาอาจสูญเสียโอกาสในการสร้างผลงานให้ออกมาดีที่สุด ผู้วิจัยจึงนำเสนอการนำโมเดล ML-GCN ซึ่งเป็นโมเดลสำหรับการทำ Muti-label เพื่อช่วยในการกำหนดแท็กของภาพอนิเมะให้มีความถูกต้องและครบถ้วนมากขึ้น โครงสร้างหลักของโมเดลนี้ประกอบด้วยโครงข่ายคอนโวลูชันแบบกราฟ (Graph Convolutional Networks: GCN) และโครงข่ายประสาทเทียมแบบคอนโวลูชัน (Convolutional Neural Network: CNN) ในงานวิจัยนี้ผู้วิจัยเปรียบเทียบอัลกอริทึมของโครงข่ายประสาทเทียมแบบคอนโวลูชัน 3 แบบ ได้แก่ ResNET, ResNeXT และ EfficientNet เพื่อวิเคราะห์ว่าอัลกอริทึมใดจำแนกแท็กของภาพอนิเมะได้ถูกต้องมากกว่า จากผลการทดลองพบว่า ResNeXT มีค่าความแม่นยำเฉลี่ย (mAP) สูงกว่า ResNET และ EfficientNet ทำให้ ResNeXT เหมาะนำมาใช้ร่วมกับโมเดล ML-GCN ในการจำแนกแท็กของภาพอนิเมะ |
| URI: | http://ir.buu.ac.th/dspace/handle/1513/1320 |
| Appears in Collections: | Faculty of Informatics |
Files in This Item:
| File | Description | Size | Format | |
|---|---|---|---|---|
| 65910099.pdf | 6.85 MB | Adobe PDF | View/Open |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.