Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/23497
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorChidchanok Lursinsap-
dc.contributor.advisorSuphakant Phimoltares-
dc.contributor.authorSaichon Jaiyen-
dc.contributor.otherChulalongkorn University. Faculty of Science-
dc.date.accessioned2012-11-09T02:53:23Z-
dc.date.available2012-11-09T02:53:23Z-
dc.date.issued2011-
dc.identifier.urihttp://cuir.car.chula.ac.th/handle/123456789/23497-
dc.descriptionThesis (Ph.D.)--Chulalongkorn University, 2011en
dc.description.abstractThis research proposes a very fast 1-pass-throw-away learning algorithm based on a hyper-ellipsoidal function that can be translated and rotated to cover the data set during learning process. The translation and rotation of hyper-ellipsoidal function depends upon the distribution of the data set. In addition, the versatile elliptic basis function (VEBF) neural network with one hidden layer is proposed. The hidden layer of the proposed neural network is adaptively divided into subhidden layers according to the number of classes of the training data set. Each subhidden layer can be scaled by incrementing a new node to learn new samples during training process. The learning time is O(n), where n is the number of data. The network can independently learn any new incoming datum without involving the previously learned data. Therefore, there is no need to store all previous data in order to mix with the new incoming data during the learning process.en
dc.description.abstractalternativeงานวิจัยนี้นำเสนออัลกอริทึมการเรียนรู้แบบเร็วมากที่เรียนรู้ข้อมูลใหม่เพียงครั้งเดียวแล้วทิ้งข้อมูลนั้นโดยไม่ต้องใช้ข้อมูลเก่าที่เรียนรู้ไปแล้วด้วยการใช้ฟังก์ชันไฮเพอร์อัลลิปซอยด์ ฟังก์ชันชนิดนี้มีรูปทรงเป็นวงรีและสามารถเรียนรู้ข้อมูลหลายมิติได้โดยการล้อมข้อมูลที่เข้ามาตามการกระจายตัวของข้อมูล นอกจากนี้งานวิจัยนี้ยังเสนอโครงข่ายประสาทเทียมที่ใช้ฟังก์ชัน อัลลิปซอยด์เป็นฟังก์ชันในการเรียนรู้ โครงข่ายประสาทเทียมชนิดนี้มีชั้นซ่อนเพียงแค่ชั้นเดียวซึ่งจะถูกแบ่งเป็นชั้นซ่อนย่อยตามจำนวนกลุ่มของข้อมูลและจำนวนเซลล์ประสาทเทียมในชั้นซ่อนย่อยสามารถเพิ่มขึ้นได้ในระหว่างการเรียนรู้ โครงข่ายประสาทเทียมชนิดนี้สามารถเรียนรู้ข้อมูลได้โดยใช้เวลา O(n) เมื่อ n คือจำนวนข้อมูลสำหรับเรียนรู้ โครงข่ายประสาทเทียมชนิดนี้สามารถเรียนรู้ข้อมูลที่เข้ามาใหม่โดยไม่ต้องใช้ข้อมูลเก่าที่เรียนรู้ไปแล้ว ดังนั้นจึงไม่มีความจำเป็นที่จะต้องเก็บข้อมูลเก่าไว้เพื่อเรียนรู้ข้อมูลใหม่en
dc.format.extent1167434 bytes-
dc.format.mimetypeapplication/pdf-
dc.language.isoenes
dc.publisherChulalongkorn Universityen
dc.relation.urihttp://doi.org/10.14457/CU.the.2011.1690-
dc.rightsChulalongkorn Universityen
dc.subjectAlgorithmsen
dc.subjectLearningen
dc.subjectArtificial intelligenceen
dc.subjectNeural networks (Computer science)en
dc.titleA very fast incremental neural learning for classification using only new incoming datum and hyper-ellipsoidal functionen
dc.title.alternativeการเรียนรู้เพิ่มเติมแบบเร็วมากของเซลล์ประสาทเทียมสำหรับการแบ่งกลุ่มข้อมูลโดยใช้เพียงข้อมูลที่เข้ามาใหม่และฟังก์ชันไฮเพอร์อัลลิปซอยด์en
dc.typeThesises
dc.degree.nameDoctor of Philosophyes
dc.degree.levelDoctoral Degreees
dc.degree.disciplineComputer Sciencees
dc.degree.grantorChulalongkorn Universityen
dc.email.advisorlchidcha@chula.ac.th-
dc.email.advisorsuphakant.p@chula.ac.th-
dc.identifier.DOI10.14457/CU.the.2011.1690-
Appears in Collections:Sci - Theses

Files in This Item:
File Description SizeFormat 
saichon_ja.pdf1.14 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.