Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/35925
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorChidchanok Lursinsap-
dc.contributor.authorPerasut Rungcharassang-
dc.contributor.otherChulalongkorn University. Faculty of Science-
dc.date.accessioned2013-09-16T10:12:48Z-
dc.date.available2013-09-16T10:12:48Z-
dc.date.issued2011-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/35925-
dc.descriptionThesis (M.Sc.)--Chulalongkorn University, 2011en_US
dc.description.abstractA new training algorithm to enhance the accuracy of minority class in imbalanced data learning problem was proposed. This algorithm is based on the observation that the cause of lower accuracy is due to the domination of the error terms, i.e. the square of difference between the target and the actual output, computed by those data in majority class in the cost function. To resolve this domination, our cost function is re-established at each epoch based on the errors of the data in minority and majority classes. Any datum whose corresponding term in the cost function produces an error less than 0.05 is removed from cost function. Otherwise, it is put back into the cost function. Our algorithm adopting multilayer perceptron and Levenberg-Marquardt (LM) as the learning algorithm was compared with classical LM and the recent algorithm RAMOBoost on 15 well-known benchmarks. The experimental results of our approach produced higher accuracy than the other approaches in 13 cases with faster training speed.en_US
dc.description.abstractalternativeในงานวิจัยนี้ได้นำเสนอ ขั้นตอนวิธีการสอนใหม่เพื่อเพิ่มความแม่นยำของกลุ่มส่วนน้อยสำหรับปัญหาการเรียนรู้ข้อมูลไม่ดุล ขั้นตอนวิธีนี้ได้จากการสังเกตว่าสาเหตุของค่าความแม่นยำต่ำเนื่องจากอิทธิพลของพจน์ค่าคลาดเคลื่อน ซึ่งคำนวณได้จากผลต่างของเป้าหมายกับข้อมูลส่งออกที่แท้จริงทั้งหมดยกกำลังสอง โดยข้อมูลในกลุ่มส่วนน้อยเหล่านั้นในฟังก์ชันค่าใช้จ่าย เพื่อแก้ปัญหานี้ฟังก์ชันค่าใช้จ่ายจะถูกตั้งค่าใหม่ที่แต่ละรอบขึ้นอยู่กับค่าผิดพลาดของข้อมูลในกลุ่มส่วนน้อยและกลุ่มส่วนมาก ข้อมูลใดๆที่คำนวณค่าผิดพลาดได้น้อยกว่า 0.05 จะถูกคัดออกไปจากฟังก์ชันค่าใช้จ่าย ข้อมูลที่เหลือให้ใส่กลับเข้าไปในฟังก์ชันค่าใช้จ่าย ขั้นตอนวิธีการสอนใหม่นี้ถูกเปรียบเทียบกับวิธีเลเวนเบิร์ก-มาร์ควอดท์และวิธีลาโมบูสท์ บนชุดข้อมูลมาตรฐาน 15 ชุด จากผลการทดลองแสดงให้เห็นถึงความแม่นยำของวิธีการนี้ที่สูงขึ้นกว่าวิธีการอื่นๆใน 13 ตัวอย่าง พร้อมทั้งมีความเร็วในการสอนเร็วขึ้นอีกด้วยen_US
dc.language.isoenen_US
dc.publisherChulalongkorn Universityen_US
dc.relation.urihttp://doi.org/10.14457/CU.the.2011.74-
dc.rightsChulalongkorn Universityen_US
dc.subjectNeural networks (Computer science)en_US
dc.subjectAlgorithmsen_US
dc.subjectImbalanced Problemen_US
dc.subjectนิวรัลเน็ตเวิร์ค (คอมพิวเตอร์)en_US
dc.subjectอัลกอริทึมen_US
dc.titleIterative error re-establishment to improve neural network cost function for imbalanced data learningen_US
dc.title.alternativeการตั้งค่าความผิดพลาดใหม่แบบวนซ้ำเพื่อปรับปรุงฟังก์ชันค่าใช้จ่ายของโครงข่ายประสาทสำหรับการเรียนรู้ข้อมูลแบบไม่ดุลen_US
dc.typeThesisen_US
dc.degree.nameMaster of Scienceen_US
dc.degree.levelMaster's Degreeen_US
dc.degree.disciplineApplied Mathematics and Computational Scienceen_US
dc.degree.grantorChulalongkorn Universityen_US
dc.email.advisorChidchanok.L@Chula.ac.th-
dc.identifier.DOI10.14457/CU.the.2011.74-
Appears in Collections:Sci - Theses

Files in This Item:
File Description SizeFormat 
perasut_ru.pdf1.39 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.