Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/10898
Title: Principles of convergent rate and generalization enhancement for feedforward sigmoid-like network
Other Titles: หลักการเพิ่มอัตราการลู่เข้าและการวางนัยทั่วไปสำหรับโครงข่ายป้อนไปข้างหน้าชนิดเซลล์ประสาทคล้ายซิกมอยด์
Authors: Khamron Sunat
Advisors: Chidchanok Lursinsap
Other author: Chulalongkorn University. Faculty of Science
Advisor's Email: Chidchanok.L@Chula.ac.th
Subjects: Neural networks (Computer science)
Computer algorithms
Issue Date: 2003
Publisher: Chulalongkorn University
Abstract: This dissertation demonstrates how the p-recursive piecewise polynomial (p-RPP) generators and their derivatives are constructed. The feedforward computational time of a multilayer feedforward network can be reduced by using these functions as the activation functions. Three modifications of training algorithms are proposed. First, the modified error function is used so that the sigmoid prime factor for the updating rule of the output units is eliminated. Second, the input patterns are normalized in order to balance the dynamic range of the inputs. Third, a new penalty function is introduced to the hidden layer to get the anti-Hebbian rules providing information when the activation functions have zero sigmoid prime factor. The three modifications are combined with two versions of Rprop (Resilient propagation) algorithm. The proposed procedures achieved the excellent results without the need for careful selection of the training parameters. Not only the algorithm but also the shape of the activation function has important influence on the training performance.
Other Abstract: วิทยานิพนธ์ฉบับนี้แสดงการสร้างตัวก่อกำเนิดพหุนามเป็นช่วง ชนิด พี-รีเคอร์ซีฟ และอนุพันธ์ เวลาที่ใช้คำนวณการป้อนไปข้างหน้าของโครงข่ายชนิดป้อนไปข้างหน้าหลายชั้น สามารถทำให้ลดลงได้โดยการใช้ฟังก์ชันที่เสนอเป็นฟังก์ชันกระตุ้น มีการนำเสนอการปรับแต่งสามอย่างคือ (1) ฟังก์ชันผิดพลาดที่ปรับแต่งแล้วถูกใช้เพื่อขจัดตัวประกอบอนุพันธ์ซิกมอยด์ของการปรับค่าใหม่ที่หน่วยข้อมูลออก (2) รูปแบบข้อมูลเข้าถูกทำให้เป็นบรรทัดฐาน เพื่อทำให้พิสัยพลศาสตร์ของข้อมูลเข้ามีความสมดุล (3) ฟังก์ชันลงโทษใหม่ถูกเพิ่มให้แก่ชั้นซ่อน เพื่อให้ได้กฎ ปฏิ-เฮบเบียน ซึ่งจะให้ข้อมูลแก่ชั้นซ่อนในขณะที่ฟังก์ชันกระตุ้นมีตัวประกอบอนุพันธ์ซิกมอยด์เป็นศูนย์ การปรับแต่งทั้งสามอย่าง ถูกใช้ผสมกับขั้นตอนวิธี เอสเออาร์พรอพ กระบวนการที่ถูกเสนอให้ผลลัพธ์ที่ดีมาก โดยไม่ต้องระมัดระวังการเลือกพารามิเตอร์สำหรับการสอน ไม่ใช่เพียงขั้นตอนวิธีเท่านั้นแต่รูปร่างของฟังก์ชันกระตุ้นก็เช่นกันที่มีอิทธิพลอย่างมากต่อสมรรถนะการสอน
Description: Thesis (M.Sc.)--Chulalongkorn University, 2003
Degree Name: Doctor of Philosophy
Degree Level: Doctoral Degree
Degree Discipline: Computer Science
URI: http://cuir.car.chula.ac.th/handle/123456789/10898
ISBN: 9741751206
Type: Thesis
Appears in Collections:Sci - Theses

Files in This Item:
File Description SizeFormat 
Khamron.pdf2.29 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.