Please use this identifier to cite or link to this item: http://cmuir.cmu.ac.th/jspui/handle/6653943832/73605
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorTheeraphong Wongratanaphisan-
dc.contributor.authorIsira Uthpala Eashwara Naotunnaen_US
dc.date.accessioned2022-07-10T03:43:03Z-
dc.date.available2022-07-10T03:43:03Z-
dc.date.issued2021-05-
dc.identifier.urihttp://cmuir.cmu.ac.th/jspui/handle/6653943832/73605-
dc.description.abstractTraditional robots are widely used in the industry as they are reliable, fast, and has precise motions to perform various tasks in factory environment. Especially, mobile robot and manipulators play a significant role in enhancing productivity, reducing human involvement as well as in improving safety in the industrial workspace. In order to carry out tasks in a more human-involved environment, a robot should be able to perceive its surroundings, plan its motions to avoid obstacles, manipulate objects and use specific tools to achieve its goals. Yet, perception has become difficult due to the limitations in technology and hardware that is required to process the collected data. To explore the limits of the open-source Robot Operating System (ROS) software for mobile manipulation systems in object handling, this thesis has developed a ROS-based mobile manipulator robot that exhibits autonomous and intelligent behavior to perform a fetch- and-carry task in an indoor environment. The system has been developed using the knowledge gathered on robot kinematics, computer vision, visual servoing, and Simultaneous Localization and Mapping (SLAM), navigation, and object manipulation. The robot's autonomous navigation system has been developed using the ROS navigation stack with real-time appearance-based mapping and localization techniques. The object detection and the manipulation techniques have been developed using the Aruco marker-based visual servoing technique. This work uses the Intel RealSense T265 tracking camera information to develop the robot's transformation (TF) tree instead of using the common approach of ROS for minimizing the odometry errors. Instead of using multiple sensor sources or laser scanner data such as in many existing systems to perform the autonomous navigation tasks, this research has set up the ROS navigation stack by using only the Intel RealSense D435i camera with the help of the transformation tree developed based on the Intel RealSense T265 tracking camera. The developed system was tested and validated by several experiments.en_US
dc.language.isoenen_US
dc.publisherChiang Mai : Graduate School, Chiang Mai Universityen_US
dc.titleDevelopment of an autonomous mobile manipulator system to perform fetch and carry tasksen_US
dc.title.alternativeการพัฒนาระบบหุ่นยนต์เคลื่อนที่แบบอัตโนมัติเพื่อการหยิบจับและเคลื่อนย้ายวัตถุen_US
dc.typeThesis
thailis.controlvocab.lcshMobile robots-
thailis.controlvocab.lcshRobots-
thailis.controlvocab.lcshRobots -- Design and construction-
thailis.controlvocab.lcshRobots -- Control systems-
thesis.degreemasteren_US
thesis.description.thaiAbstractหุ่นยนต์ถูกใช้กันอย่างแพร่หลายในอุตสาหกรรมเนื่องจากมีความน่าเชื่อถือ รวดเร็ว และมีการเคลื่อนไหวที่แม่นยำเพื่อทำงานต่างๆ ในสภาพแวดล้อมโรงงานอุตสาหกรรม โดยเฉพาะอย่างยิ่งหุ่นยนต์โมบายและแขนกลมีบทบาทสำคัญในการเพิ่มผลผลิต ลดการมีส่วนร่วมของมนุษย์ รวมทั้งปรับปรุงความปลอดกัยในพื้นที่ทำงานอุตสาหกรรม สำหรับการทำงานในสภาพแวดล้อม ที่ผู้คนร่วมทำงานด้วยหุ่นยนต์ควรสามารถรับรู้สภาพแวดล้อม วางแผนการเคลื่อนที่เพื่อหลีกเลี่ยง สิ่งกีดขวาง จัดการวัตถุและใช้เครื่องมือที่จำเป็นเพื่อให้บรรลุเป้าหมาย อย่างไรก็ตามการรับรู้กลายเป็นเรื่องยาก เนื่องจากข้อจำกัดด้านเทคโนโลยีและฮาร์ดแวร์ที่จำเป็นในการประมวลผลข้อมูลที่รวบรวม เพื่อสำรวจขีดจำกัดของระบบซอฟแวร์ปฏิบัติการหุ่นยนต์ (ROS) ซึ่งเป็นซอฟแวร์โอเพนซอร์ส ในการจัดการวัตถุ วิทยานิพนธ์นี้ได้พัฒนาหุ่นยนต์ประเภทแขนกลติดตั้งบนฐานเคลื่อนที่ซึ่งใช้ระบบซอฟแวร์ ROS เคลื่อนที่อัตโนมัติและมีความชาญฉลาด สำหรับทำงานในการหยิบจับและเคลื่อนย้ายในสภาพแวดล้อมภายในอาคาร ระบบถูกพัฒนาขึ้นจากการรวบรวมความรู้ด้านจลนศาสตร์ของหุ่นยนต์ การมองเห็น ของคอมพิวเตอร์ การเซอร์โวภาพ ระบบสร้างแผนที่แบบ SLAM การนำทางและการจัดการวัตถุ ระบบนำทางอัตโนมัติของหุ่นยนต์ได้ถูกพัฒนาขึ้นโดยใช้สแต็กการนำทาง ROS พร้อมด้วยเทคนิคการสร้างแผนที่พร้อมสื่อรู้ตำแหน่งแบบเรียลไทม์ การตรวจรู้วัตถุและเทคนิคหยิบจับถูกพัฒนาขึ้น โดยใช้เทคนิคการแสดงภาพตามเครื่องหมาย Aruco งานนี้ใช้ข้อมูลกล้องติดตาม Intel RealSense T265 เพื่อพัฒนาโครงสร้าง TF ของหุ่นยนต์แทนที่จะใช้วิธีการทั่วไปของ ROS เพื่อลดข้อผิดพลาด ของ odometry แทนที่การใช้แหล่งเซ็นเซอร์หลายแหล่งหรือข้อมูลสแกนเนอร์เลเซอร์เช่น ในระบบที่มีอยู่จำนวนมาก งานวิจัยนี้ได้ตั้งค่าสแต็กการนำทาง ROS โดยใช้เฉพาะกล้อง Intel RealSense D435i โดยใช้โครงสร้าง TF ที่ได้พัฒนาขึ้นจากกล้องติดตาม Intel RealSense T265 ระบบที่พัฒนาขึ้น ได้ถูกทดสอบและตรวจสอบการใช้งานในระดับห้องปฏิบัติการen_US
Appears in Collections:ENG: Theses

Files in This Item:
File Description SizeFormat 
610631134 ISIRA UTHPALA EASHWARA NAOTUNNA.pdf9.62 MBAdobe PDFView/Open    Request a copy


Items in CMUIR are protected by copyright, with all rights reserved, unless otherwise indicated.