การประเมินประสิทธิภาพของเทคนิคการเพิ่มคุณภาพของภาพ เพื่อการตรวจจับกรวยจราจรในช่วงเวลาพลบค่ำด้วย YOLOv8

Main Article Content

วิระ ศรีมาลา
กฤษณะ ชินสาร
อธิตา อ่อนเอื้อน
คงกฤช ปิตานนท์

บทคัดย่อ

การวิจัยนี้มุ่งศึกษาผลกระทบของเทคนิคการเพิ่มคุณภาพของภาพในรูปแบบต่าง ๆ ที่มีต่อประสิทธิภาพของระบบตรวจจับกรวยจราจรโดยใช้สถาปัตยกรรม YOLOv8 โดยจำลองสถานการณ์การวางกรวยจราจรตามแนวไหล่ทางทั้งสองฝั่งของถนน เพื่อใช้เป็นสัญญาณเตือนและลดความเสี่ยงของอุบัติเหตุจากสภาพไหล่ทาง การเก็บข้อมูลดำเนินการผ่านการบันทึกวิดีโอจริงโดยใช้กล้องสมาร์ตโฟนติดหน้ารถยนต์ ซึ่งมีเซนเซอร์ CMOS และเลนส์มุมกว้างที่ความละเอียด 1920x1080 พิกเซล ในช่วงเวลาพลบค่ำระหว่างเวลา 18.30–19.00 น. ซึ่งเป็นช่วงที่ค่าความสว่างของแสงโดยทั่วไปอยู่ในช่วงประมาณ 1–10 ลักซ์ ส่งผลให้ทัศนวิสัยต่ำและความคมชัดของภาพลดลงอย่างมีนัยสำคัญ วิดีโอดังกล่าวถูกสกัดออกมาเป็นจำนวน 900 เฟรม จากนั้นเฟรมทั้งหมดจะถูกจัดเป็นชุดข้อมูลพื้นฐานชุดที่ 1 (SRC) และสำเนาอีก 5 ชุด เพื่อเข้าสู่กระบวนการปรับปรุงคุณภาพภาพด้วยเทคนิคต่าง ๆ ได้แก่ 1) การปรับเชิงเส้น (LIN), 2) การปรับสมดุลฮิสโตแกรม (HE), 3) การเพิ่มคุณภาพภาพแบบลอการิทึม (LOG), 4) การปรับเชิงเส้นร่วมกับการจัดการความอิ่มตัวของสี (LIN-SAT) และ 5) การปรับสมดุลฮิสโตแกรมโดยจำกัดความเปรียบต่าง (CLAHE) กระบวนการตรวจจับกรวยจราจรดำเนินการด้วยสถาปัตยกรรม YOLOv8 โดยใช้โมเดลเฉพาะทางที่ผ่านการฝึกฝนเพื่อการตรวจจับกรวยโดยเฉพาะ การประเมินประสิทธิภาพใช้ตัวชี้วัด ได้แก่ จำนวนกรวยเฉลี่ยต่อเฟรม ความแม่นยำ (Precision) ความครอบคลุม (Recall) ค่าความสมดุลระหว่างความแม่นยำและความครอบคลุม (F1 Score) ความถูกต้อง (Accuracy) และค่าเฉลี่ยความเชื่อมั่น (Average Confidence) ผลการทดลองพบว่า การประมวลผลภาพด้วยการปรับสมดุลฮิสโตแกรมโดยจำกัดความเปรียบต่างให้ประสิทธิภาพโดยรวมดีที่สุด โดยได้จำนวนกรวยเฉลี่ยต่อเฟรมเท่ากับ 4.7 ความแม่นยำเท่ากับ 98.74%, ความครอบคลุมเท่ากับ 77.78% ค่าความสมดุลระหว่างความแม่นยำและความครอบคลุมเท่ากับ 87.01% ความถูกต้องเท่ากับ 77.01% และค่าเฉลี่ยความเชื่อมั่นเท่ากับ 62.22% ดังนั้น การประยุกต์ใช้เทคนิคการปรับสมดุลฮิสโตแกรมโดยจำกัดความเปรียบต่างจึงมีศักยภาพในการเพิ่มประสิทธิภาพและความน่าเชื่อถือของระบบตรวจจับกรวยจราจรด้วย YOLOv8 ภายใต้สภาพแสงน้อยได้อย่างมีนัยสำคัญ

Downloads

Download data is not yet available.

Article Details

รูปแบบการอ้างอิง
[1]
ศรีมาลา ว., ชินสาร ก., อ่อนเอื้อน อ., และ ปิตานนท์ ค., “การประเมินประสิทธิภาพของเทคนิคการเพิ่มคุณภาพของภาพ เพื่อการตรวจจับกรวยจราจรในช่วงเวลาพลบค่ำด้วย YOLOv8”, Def. Technol. Acad. J., ปี 7, ฉบับที่ 16, น. R31 - R44, ธ.ค. 2025.
ประเภทบทความ
บทความวิจัย

เอกสารอ้างอิง

T. Wang et al., "Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and Transformer-Based Method," arXiv preprint arXiv:2212.11548, 2022. [Online]. Available: https://arxiv.org/abs/2212.11548

Z. Wang, Z. Cai, and Y. Wu, "An improved YOLOX approach for low-light and small object detection: PPE on tunnel construction sites," Journal of Computational Design and Engineering, vol. 10, no. 3, pp. 1158–1175, May 2023. [Online]. Available: https://doi.org/10.1093/jcde/qwad042.

R. C. Gonzalez and R. E. Woods, Digital Image Processing, 4th ed. New York, NY, USA: Pearson, 2018.

S. M. Pizer, E. P. Amburn, J. D. Austin, et al., “Adaptive histogram equalization and its variations,” Computer Vision, Graphics, and Image Processing, vol. 39, no. 3, pp. 355–368, 1987.

K. Zuiderveld, “Contrast limited adaptive histogram equalization,” in Graphics Gems IV, P. S. Heckbert, Ed. San Diego, CA, USA: Academic Press Professional, 1994, pp. 474–485.

J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You Only Look Once: Unified, Real-Time Object Detection,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), 2016, pp. 779–788.

G. Jocher, A. Chaurasia, A. Qiu, and Y. Stoken, “YOLO by Ultralytics,” GitHub repository, 2023. [Online]. Available: https://github.com/ultralytics/ultralytics

Q. Su, H. Wang, M. Xie, Y. Song, S. Ma, B. Li, Y. Yang, and L. Wang, "Real‐time traffic cone detection for autonomous driving based on YOLOv4," IET Intelligent Transport Systems, vol. 16, no. 10, pp. 1380–1390, Jun. 2022. doi: 10.1049/itr2.12212.

Z. Lin, Y. Wu, Y. Ma, J. Chen, R. Zhang, J. Wu, G. Yin, and L. Lin, "YOLO-LLTS: Real-time low-light traffic sign detection via prior-guided enhancement and multi-branch feature interaction," arXiv preprint, arXiv:2503.13883, Mar. 2025. [Online]. Available: https://arxiv.org/abs/2503.13883

T.-Y. Lin, M. Maire, S. Belongie, et al., “Microsoft COCO: Common objects in context,” in Proc. Eur. Conf. Comput. Vis. (ECCV), 2014, pp. 740–7