Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/18227
Title: การระบุบคคลด้วยแบบรูปม่านตาโดยใช้เว็บแคมแบบอินฟราเรด
Other Titles: Personal identification via iris pattern using infrared web cam
Authors: อังคาร จารุจารีต
Advisors: นงลักษณ์ โควาวิสารัช
Other author: จุฬาลงกรณ์มหาวิทยาลัย. คณะวิศวกรรมศาสตร์
Advisor's Email: nongluk.c@chula.ac.th
Issue Date: 2552
Publisher: จุฬาลงกรณ์มหาวิทยาลัย
Abstract: นำเสนอวิธีการระบุบุคคลโดยใช้ลักษณะของแบบรูปม่านตา จากภาพที่เก็บด้วยเว็บแคมแบบอินฟราเรดซึ่งเป็นอุปกรณ์เก็บภาพราคาถูก โดยใช้การสกัดลักษณะที่คงทนต่อการรบการรบกวนจาก ขนตา เปลือกตา แสงสะท้อนจากแหล่งกำเนิดแสงอินฟาเรด และเงาสะท้อนจากวัตถุภายนอก นอกจากนี้ในงานวิจัยยังเสนอวิธีการระบุตำแหน่งม่านตา ซึ่งลดเวลาในการระบุตำแหน่งเมื่อเทียบกับวิธีที่เป็นที่นิยม ขณะที่ความถูกต้องในการระบุตำแหน่งไม่แตกต่างไปจากเดิม เนื่องจากการระบุตำแหน่งม่านตาโดยวิธีที่นำเสนอ เลือกใช้เฉพาะพิกเซลที่มีความสำคัญมาประมวลผล รวมถึงวิธีการระบุตำแหน่งที่ไม่ซับซ้อนเพื่อประมาณตัวแบบของรูม่านตาและม่านตา วิธีการระบุบุคคลด้วยแบบรูปม่านตาในงานวิจัยนี้ประกอบด้วย 3 ขั้นตอนคือ การประมวลผลภาพม่านตาเบื้องต้น การสกัดลักษณะม่านตา และการเปรียบคู่ม่านตา โดยการประมวลผลภาพม่านตาเบื้องต้นประกอบด้วยการระบุตำแหน่งม่านตา และการแปลงระบบพิกัดเชิงเส้นเป็นระบบพิกัดเชิงขั้ว ภาพจากขั้นตอนการประมวลผลภาพม่านตาเบื้องต้น จะถูกสกัดลักษณะแบบรูปม่านตาอาศัยการปรับปรุงภาพ ด้วยผลต่างเกาส์เซียนเพื่อเพิ่มความต่างเปรียบให้โครงสร้างม่านตา จากนั้นตรวจหาบล็อบซึ่งเป็นโครงสร้างม่านตาจากภาพม่านตาฐานสอง เพื่อใช้ในการหาลักษณะม่านตา โดยลักษณะม่านตาประกอบด้วยตำแหน่งจุดศูนย์กลางมวล ทิศของแกนหลัก และ Hu โมเมนต์ ของบล็อบที่ถูกตรวจหาซึ่งใช้ในการเปรียบคู่ต่อไป งานวิจัยนี้ทดสอบกับภาพตาจาก 2 ฐานข้อมูลประกอบด้วย ฐานข้อมูล CASIA เวอร์ชัน 3.0 และฐานข้อมูล CU–CGCI IRIS พบว่าการระบุบุคคลด้วยวิธีการที่นำเสนอกับภาพม่านตาที่ไม่มีแสงสะท้อนจากสภาพแวดล้อม ได้ค่าอัตราความผิดพลาดที่เท่ากันเฉลี่ยของทั้ง 2 ฐานข้อมูลเท่ากับ 2.15% และ 2.87% ตามลำดับ และเมื่อทดสอบการระบุบุคคลกับภาพม่านตาที่มีแสงสะท้อนจากสภาพแวดล้อม พบว่าการระบุบุคคลด้วยวิธีที่นำเสนอได้ ได้ค่าอัตราความผิดพลาดที่เท่ากันของฐานข้อมูล CASIA เวอร์ชัน 3.0 และ CU–CGCI IRIS เท่ากับ 3.71% และ 5.43% ตามลำดับ
Other Abstract: To propose an iris identification system in order to identify the uniqueness of personal iris pattern. With extract robust iris features, it tolerate to eyelid, eyelashes, reflections from infrared light source and reflections from environments. Even more, this thesis proposed an algorithm for localizing irises. Important pixels are selected and estimate both pupil and iris circle model therefore a proposed algorithm reduces localization’s time consuming while remains accurately iris detection. Iris identification system composes of 3 processes; Iris preprocessing, feature extraction and feature matching. Iris preprocessing process is a process to localize an iris and portion the extracted iris region into a rectangular shape using Cartesian–to-Polar transform. Different of Gaussian (DoG) is then perform in order to enhance iris’s structures. After threshold the DoG images, such iris structures are located and bounded by rectangles. Iris features, which are composed of centroids, direction of principle axis and Hu moment of the detected blobs, are then compared later in feature matching process. In this thesis, 2 iris databases are tested with proposed iris identification; CASIA version 3.0 and CU–CGCI IRIS. The average EER of CASIA version 3.0 and CU–CGCI IRIS are 2.15% and 2.87% respectively for identifying irises in non-reflection environment. In case of identify iris in reflection environment, the EER equal 3.71% and 5.43% tested with CASIA version 3.0 and CU–CGCI IRIS respectively.
Description: วิทยานิพนธ์ (วศ.ม.)--จุฬาลงกรณ์มหาวิทยาลัย, 2552
Degree Name: วิศวกรรมศาสตรมหาบัณฑิต
Degree Level: ปริญญาโท
Degree Discipline: วิศวกรรมคอมพิวเตอร์
URI: http://cuir.car.chula.ac.th/handle/123456789/18227
Type: Thesis
Appears in Collections:Eng - Theses

Files in This Item:
File Description SizeFormat 
ungkarn_ja.pdf10.19 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.