การพัฒนาต้นแบบ In situ info. เพื่อใช้งานบนอากาศยานไร้คนขับขนาดเล็ก
Main Article Content
บทคัดย่อ
ในปัจจุบันมีการนำระบบปัญญาประดิษฐ์เข้ามาช่วยวิเคราะห์ภาพถ่ายจากกล้องระยะไกลที่ติดอยู่บนอากาศยานไร้คนขับ (Unmanned Aerial Vehicle: UAV) สำหรับใช้ในการสำรวจพื้นที่ปลูกพืชเสพติดในพื้นที่ต่างๆ เช่น แปลงปลูกพืชบนที่ราบสูง บริเวณหุบเขาหรือที่ทุรกันดาร อีกทั้งยังสามารถประมวลผลภาพถ่ายได้ใกล้เคียงกับเวลาจริงที่ระบบปัญญาประดิษฐ์ตรวจจับได้ ทำให้สามารถค้นหาเป้าหมายที่ต้องการได้อย่างชัดเจนมากขึ้น ทั้งนี้ ในบทความวิชาการนี้เป็นการศึกษาระบบปัญญาประดิษฐ์ตรวจจับพืชเสพติดบนอากาศยานไร้คนขับขนาดเล็ก (Small Unmanned Aerial Vehicle) โดยการประมวลผลและวิเคราะห์ภาพถ่ายจากกล้องบนระบบอากาศยานขนาดเล็กนี้จะทำงานทันทีตามเวลาที่เกิดขึ้นจริง ซึ่งผลลัพธ์ที่ได้ทั้งหมดจะทำงานบนอุปกรณ์ที่ติดบนอากาศยานไร้คนขับขนาดเล็กหรือเรียกระบบนี้ว่า “In situ info.” และเป้าหมายของระบบนี้ได้แบ่งการทำงานออกเป็น 3 ส่วน คือ การประกอบรวมของระบบปัญญาประดิษฐ์ขั้นต้น ต้นแบบระบบปัญญาประดิษฐ์ตรวจจับพืชเสพติดบนอากาศยานไร้คนขับขนาดเล็กและทดสอบต้นแบบระบบปัญญาประดิษฐ์บนอากาศยานไร้คนขับขนาดเล็กในสถานที่จริง ในบทความนี้จะเป็นการกล่าวถึงการประกอบรวมของระบบปัญญาประดิษฐ์ขั้นต้นเท่านั้น เนื่องจากการวิเคราะห์ผลของข้อมูลบนระบบอากาศยานไร้คนขับขนาดเล็กนั้น ทำให้การเลือกอุปกรณ์ต้องมีขนาดเล็กน้ำหนักเบา ซึ่งเป็นข้อจำกัดในการเลือกอุปกรณ์ที่นำมาติดตั้งบนอากาศยานไร้คนขับขนาดเล็ก ในระบบปัญญาประดิษฐ์ที่ได้ศึกษานี้ได้ใช้ดอกไม้ที่หาได้ง่ายจำลองเป็นพืชเสพติดเพี่อใช้ในการสร้างโมเดลโดยใช้ TensorFlow เวอร์ชัน 1.15 ผ่านสถาปัตยกรรม SSD Mobilenet เวอร์ชันที่ 2 โดยการสร้าง One class classification เป็นระบบที่ใช้ในการประมวลผลภาพ ซึ่งจะทำการทดสอบโมเดลผ่านระบบกล้องที่จะนำไปใช้ในการติดตั้งบนอากาศยานไร้คนขับขนาดเล็กทั้งกล้องแบบเลนส์ทางยาวโฟกัสเดียว (Prime lens) และแบบเลนส์ซูม (Zoom lens) จากการเตรียมการทดสอบทำให้ทราบถึงการนำระบบปัญญาประดิษฐ์ไปทำงานร่วมกับกล้องประเภทต่าง ๆ ดังที่กล่าวมาข้างต้น ผลลัพธ์ที่ได้เป็นไปตามวัตถุประสงค์ในการศึกษา
Downloads
Article Details

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Journal of TCI is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0) licence, unless otherwise stated. Please read our Policies page for more information...
เอกสารอ้างอิง
S. Verykokou, A. Doulamis, G. Athanasiou, C. Ioannidis, and A. Amditis, “UAV-based 3D Modelling of Disaster Scenes for Urban Search and Rescue,” in 2016 IEEE Int. Conf. Imag.Syst.Techn. (IST), Chania, Greece, 2016, pp. 106 - 111, doi: 10.1109/IST.2016.7738206.
R. Kalita, A. K. Talukdar, and K. K. Sarma, “Real-Time Human Detection with Thermal Camera Feed using YOLOv3,” in 2020 IEEE 17th India Council Int. Conf. (INDICON), New Delhi, India, 2020, pp.1-5, doi: 10.1109/ INDICON49873.2020.9342089.
C. Hsu, F. Chen, and G. Wang, “High-Resolution Image Inpainting through Multiple Deep Networks,” in 2017 Int. Conf. Vision, Image Signal Process. (ICVISP), Osaka, Japan, 2017, pp. 76 - 81, doi: 10.1109/ICVISP.2017.27.
J. Zhou, Y. Tian, K. Yin, G. Yang, and M. Wen, “Improved UAV Opium Poppy Detection Using an Updated YOLOv3 Model,” Sensor, vol. 19, no. 22, p.4851, 2019.
R. Alshanbari, S. Khan, N. El-Atab, and M. M. Hussain, “AI Powered Unmanned Aerial Vehicle for Payload Transport Application,” in 2019 IEEE Nat. Aerosp. Electron. Conf. (NAECON), Dayton, OH, USA, 2019, pp. 420 - 424, doi: 10.1109/NAECON 46414.2019.9058320.
Y. Gao, T. Huang, Z. Lin, B. Xu and D. Xu, “A Real-time Chinese Speech Recognition System with Unlimited Vocabulary,”in 1991 Int. Conf. Acoust. Speech, Signal Process. Toronto, Ontario, Canada, 1991, pp. 257 - 260, doi: 10.1109/ICASSP.1991.150326.
J. A. Paredes, J. González, C. Saito and A. Flores, “Multispectral Imaging System with UAV Integration Capabilities for Crop Analysis,” in 2017 1st IEEE Int.Symp. Geosci. Remote Sens.(GRSS-CHILE), Valdivia, Chile, 2017, pp. 1 - 4, doi: 10.1109/GRSS-CHILE.2017.7996009.
T. K. Hazra, D. P. Singh, and N. Daga, “Optical Character Recognition Using KNN on Custom Image Dataset,” in 2017 8th Annu. Ind. Automat. Electromechanical Eng. Conf. (IEMECON), Bangkok, Thailand, 2017, pp. 110 - 114, doi: 10.1109/IEMECON.2017.8079572.