Please use this identifier to cite or link to this item: https://cuir.car.chula.ac.th/handle/123456789/64994
Title: Text localization and extraction from background with texture and noise in digital images using adaptive thresholding and convolutional neural network
Other Titles: การระบุและคัดแยกข้อความออกจากพื้นหลังที่มีพรรณลักษณ์และสัญญาณรบกวนในภาพดิจิทัลโดยใช้การขีดแบ่งปรับตัวและโครงข่ายประสาทแบบสังวัฒนาการ
Authors: Pukjira Pattaranuprawat
Advisors: Rajalida Lipikorn
Other author: Chulalongkorn University. Faculty of Science
Issue Date: 2019
Publisher: Chulalongkorn University
Abstract: For the past few years, research topics on finding position of text have received more and more attention from researchers because there are still lots of problems that are needed to be solven.  We propose a novel method to find the position of text in an image. The first step of the proposed method is to adjust an image by converting a color image to a gray scale image and then use an average filter to improve an image. An average filter is used to make the background smooth and reduce noise. After that an adaptive thresholding is used to convert a gray scale image to a binary image. In the second step, the 8-neighbor connected component is used to generate bounding boxes to find the position of text candidates and the size of a bounding box is used to classify a bounding box as a text candidate or a non-text candidate. In the third step, the width-to-height ratio and Ostu’s thresholding are used to divide text candidate into character candidates. Then convolutional neural network is used to categorize a character candidate as character or non-character. The proposed method was evaluated on a data set from ICDAR 2013 which contains 229 training image data and 233 test image data. The classification revealed that the proposed method yields 71.87% of recall and 36.59% of precision. This research can find bounding box of character  effectively but it can not delete bounding box of non-character well.
Other Abstract: ในช่วงไม่กี่ปีที่ผ่านมางานวิจัยเกี่ยวกับการหาตำแหน่งของข้อความได้รับความสนใจเพิ่มมากขึ้นเนื่องจากยังมีปัญหาเกี่ยวกับการหาตำแหน่งข้อความอีกหลายปัญหาที่ยังไม่สามารถแก้ไขได้ ในงานวิจัยนี้นำเสนอวิธีใหม่ในการหาตำแหน่งของข้อความในภาพ ขั้นตอนแรกของวิธีที่นำเสนอคือการปรับปรุงรูปภาพ โดยการแปลงภาพสีให้เป็นภาพระดับสีเทา จากนั้นใช้ตัวกรองค่าเฉลี่ยเพื่อปรับปรุงภาพ โดยตัวกรองค่าเฉลี่ยจะทำให้พื้นหลังกลมกลืมและทำให้สัญญาณรบกวนลดลง หลังจากนั้นจะใช้วิธีขีดแบ่งปรับตัวเพื่อแปลงภาพระดับสีเทาให้เป็นภาพขาวดำ ขั้นตอนที่สองจะเป็นการใช้ส่วนประกอบที่เชื่อมติดกันแบบแปดเพื่อนบ้านเพื่อสร้างกล่องสี่เหลี่ยม เพื่อหาตำแหน่งของข้อความและใช้ขนาดของกล่องข้อความเพื่อจำแนกส่วนประกอบในกล่องสี่เหลี่ยมว่าส่วนประกอบที่น่าจะเป็นข้อความหรือส่วนประกอบที่ไม่ใช่ข้อความ  ขั้นตอนที่สามจะใช้อัตราส่วนความกว้างต่อความสูงและวิธีขีดแบ่งแบบออสซุ เพื่อแยกส่วนประกอบที่น่าจะเป็นข้อความให้เป็นส่วนประกอบที่น่าจะเป็นตัวอักษร จากนั้นใช้โครงข่ายประสาทแบบสังวัตนาการเพื่อทำการจำแนกส่วนประกอบว่าใช่ตัวอักษรหรือไม่ใช่ตัวอักษร ข้อมูลที่ใช้ในการประเมินวิธีที่นำเสนอเป็นข้อมูลที่ได้มาจาก ICDAR 2013 ซึ่งประกอบไปด้วยภาพที่ใช้สำหรับสอนโครงข่าย 229 ภาพและภาพที่ใช้เป็นตัวทดสอบ 233 ภาพ ผลจากการจำแนกแสดงให้เห็นว่าวิธีที่นำเสนอให้ค่าการเรียกคืนเท่ากับ 71.87% และค่าเที่ยงเท่ากับ 36.59% จากผลลัพธ์ค่าการเรียกคืนและค่าเที่ยงเท่า งานวิจัยนี้สามารถหากล่องข้อความของตัวอักษรได้อย่างมีประสิทธิภาพแต่ยังไม่สามารถลบกล่องข้อความที่ไม่ใช่ตัวอักษรได้ดีพอ
Description: Thesis (M.Sc.)--Chulalongkorn University, 2019
Degree Name: Master of Science
Degree Level: Master's Degree
Degree Discipline: Applied Mathematics and Computational Science
URI: http://cuir.car.chula.ac.th/handle/123456789/64994
URI: http://doi.org/10.58837/CHULA.THE.2019.16
metadata.dc.identifier.DOI: 10.58837/CHULA.THE.2019.16
Type: Thesis
Appears in Collections:Sci - Theses

Files in This Item:
File Description SizeFormat 
6071976923.pdf2.13 MBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.