Please use this identifier to cite or link to this item: http://cmuir.cmu.ac.th/jspui/handle/6653943832/78393
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorSuthep Suantai-
dc.contributor.advisorAttapol Kaewkhao-
dc.contributor.advisorEkkarat Boonchieng-
dc.contributor.authorLimpapat Bussabanen_US
dc.date.accessioned2023-07-09T05:41:26Z-
dc.date.available2023-07-09T05:41:26Z-
dc.date.issued2022-12-
dc.identifier.urihttp://cmuir.cmu.ac.th/jspui/handle/6653943832/78393-
dc.description.abstractOne kind of the most prevalent minimization problem which has been studied extensively is the least absolute shrinkage and selection operator problem (LASSO). Such problem arises in a wide range of applications such as statistical analysis, image processing, machine learning, etc. To solve this problem, several algorithms were introduced and studied by many authors with the challenges of computational speed and accuracy of the algorithms such as the proximal forward-backward splitting method, the Douglas-Rachford splitting method, and the alternating direction method of multipliers, and the primal-dual splitting type methods. In the first results part of this thesis, we present the novel minimization algorithms for solving the lasso problem and also analyze the theoretical weak convergence behavior of the proposed algorithms under some suitable conditions by using a specific technique in fixed point theory. In the part of the application, we apply our main results to solve image restoration problems, and some supervised learning problems. It is shown by some numerical experiments that our algorithms have a good behavior compared with some classical and popular methods such as the forward-backward algorithm (FBA), a new accelerated proximal gradient algorithm (nAGA), and a fast iterative shrinkage-thresholding algorithm (FISTA), etc. In the second results part, the specific type of bi-level convex optimization so called hierarchical convex optimization with primal-dual splitting constrain will be studied and discussed. We propose a new algorithm to solve such problem. A strong convergence and rate of convergence theorems are also proved and investigated. In the final experiment part, our algorithm will be applied to train a specific deep convolution neural networks that are able to solve image denoising and image super-resolution problems.en_US
dc.language.isoenen_US
dc.publisherChiang Mai : Graduate School, Chiang Mai Universityen_US
dc.titleNovel minimization algorithms and applications to image restoration problems and data predictionen_US
dc.title.alternativeขั้นตอนวิธีการหาค่าต่ำที่สุดแบบใหม่และการประยุกต์ไปยังปัญหาการกู้คืนภาพและการทำนายข้อมูลen_US
dc.typeThesis
thailis.controlvocab.lcshAlgorithms-
thailis.controlvocab.lcshMathematical statistics-
thesis.degreedoctoralen_US
thesis.description.thaiAbstractหนึ่งในปัญหาการหาค่าต่ำที่สุดที่ได้รับการศึกษาอย่างกว้างขวางคือปัญหาตัวดำเนินการการเลือกและการหดตัวโดยสมบูรณ์น้อยที่สุด (LASSO) ซึ่งเกิดขึ้นและถูกพูดถึงในหลายๆศาสตร์การประยุกต์ไม่ว่าจะเป็น การวิเคราะห์เชิงสถิติ, การประมวลผลภาพ, การเรียนรู้ของเครื่อง และอื่น ๆ ในขณะที่ขั้นตอนวิธีในการหาคำตอบของปัญหาดังกล่าวยังคงมีถูกคิดค้นขึ้นในหลายๆงานวิจัย อาทิเช่น ขั้นตอนวิธี proximal forward-backward splitting, ขั้นตอนวิธี Douglas-Rachford splitting, ขั้นตอนวิธี alternating direction method of multipliers และขั้นตอนวิธี primal-dual splitting type methods ฯลฯ ภายใต้ปัญหาการสร้างขั้นตอนวิธีในการหาคำตอบของปัญหา LASSO ทั้งในเรื่องของประสิทธิภาพ/ความเร็วในการคำนวณรวมถึงความแม่นของโมเดลในการหาค่าคำตอบ ทำให้ปัญหาดังกล่าวยังคงเป็นที่ท้าทายและน่าสนใจสำหรับนักวิจัยในหลายๆงานวิจัย ดังนั้นในวิทยานิพนธ์เล่มนี้ทางผู้เขียนจึงได้นำเสนอขั้นตอนวธีการหาค่าต่ำที่สุดแบบใหม่สำหรับการแก้ปัญหา LASSO อีกทั้งยังได้วิเคราะห์และพิสูจน์ทฤษฎีการลู่เข้าโดยใช้เทคนิคทางทฤษฎีจุดตรึง และในส่วนของบทประยุกต์ผู้เขียนได้ประยุกต์วิธีการดังกล่าวไปยังปัญหาการกู้คืนภาพ, ปัญหาการเรียนรู้แบบมีผู้สอนบางอย่าง ซึ่งผลการทดลองเชิงตัวเลขทำให้เห็นว่าวิธีการดังกล่าวของเรามีพฤติกรรมที่ดีเมื่อเทียบกับขั้นตอนวิธีเดิม เช่น ขั้นตอนวิธี forward-backward (FBA), ขั้นตอนวิธี new accelerated proximal gradient (nAGA), และขั้นตอนวิธี fast iterative shrinkage-thresholding (FISTA), ฯลฯ. ผู้เขียนได้ศึกษาปัญหา hierarchical convex optimization with primal-dual splitting constrain ซึ่งเป็นกรณีเฉพาะหนึ่งของปัญหา bi-level convex optimization ในส่วนที่สองของผลงานวิจัย นอกจากนี้ยังได้เสนอวิธีการใหม่พร้อมทั้งพิสูจน์ทฤษฎีการลู่เข้าแบบเข้มและ rate of convergence ซึ่งวิธีการดังกล่าวสามารถนำไปประยุกต์ใช้ในการสอน deep convolution neural networks ให้เรียนรู้ในการแก้ปัญหาเฉพาะ อาทิ image denoising และ image super-resolution ได้อีกด้วยen_US
Appears in Collections:SCIENCE: Theses

Files in This Item:
File Description SizeFormat 
600551010-ลิมปพัทธ์-บุษบัน.pdf40.21 MBAdobe PDFView/Open    Request a copy


Items in CMUIR are protected by copyright, with all rights reserved, unless otherwise indicated.