การประเมินประสิทธิภาพของเทคนิคการเพิ่มคุณภาพของภาพ เพื่อการตรวจจับกรวยจราจรในช่วงเวลาพลบค่ำด้วย YOLOv8
Main Article Content
บทคัดย่อ
การวิจัยนี้มุ่งศึกษาผลกระทบของเทคนิคการเพิ่มคุณภาพของภาพในรูปแบบต่าง ๆ ที่มีต่อประสิทธิภาพของระบบตรวจจับกรวยจราจรโดยใช้สถาปัตยกรรม YOLOv8 โดยจำลองสถานการณ์การวางกรวยจราจรตามแนวไหล่ทางทั้งสองฝั่งของถนน เพื่อใช้เป็นสัญญาณเตือนและลดความเสี่ยงของอุบัติเหตุจากสภาพไหล่ทาง การเก็บข้อมูลดำเนินการผ่านการบันทึกวิดีโอจริงโดยใช้กล้องสมาร์ตโฟนติดหน้ารถยนต์ ซึ่งมีเซนเซอร์ CMOS และเลนส์มุมกว้างที่ความละเอียด 1920x1080 พิกเซล ในช่วงเวลาพลบค่ำระหว่างเวลา 18.30–19.00 น. ซึ่งเป็นช่วงที่ค่าความสว่างของแสงโดยทั่วไปอยู่ในช่วงประมาณ 1–10 ลักซ์ ส่งผลให้ทัศนวิสัยต่ำและความคมชัดของภาพลดลงอย่างมีนัยสำคัญ วิดีโอดังกล่าวถูกสกัดออกมาเป็นจำนวน 900 เฟรม จากนั้นเฟรมทั้งหมดจะถูกจัดเป็นชุดข้อมูลพื้นฐานชุดที่ 1 (SRC) และสำเนาอีก 5 ชุด เพื่อเข้าสู่กระบวนการปรับปรุงคุณภาพภาพด้วยเทคนิคต่าง ๆ ได้แก่ 1) การปรับเชิงเส้น (LIN), 2) การปรับสมดุลฮิสโตแกรม (HE), 3) การเพิ่มคุณภาพภาพแบบลอการิทึม (LOG), 4) การปรับเชิงเส้นร่วมกับการจัดการความอิ่มตัวของสี (LIN-SAT) และ 5) การปรับสมดุลฮิสโตแกรมโดยจำกัดความเปรียบต่าง (CLAHE) กระบวนการตรวจจับกรวยจราจรดำเนินการด้วยสถาปัตยกรรม YOLOv8 โดยใช้โมเดลเฉพาะทางที่ผ่านการฝึกฝนเพื่อการตรวจจับกรวยโดยเฉพาะ การประเมินประสิทธิภาพใช้ตัวชี้วัด ได้แก่ จำนวนกรวยเฉลี่ยต่อเฟรม ความแม่นยำ (Precision) ความครอบคลุม (Recall) ค่าความสมดุลระหว่างความแม่นยำและความครอบคลุม (F1 Score) ความถูกต้อง (Accuracy) และค่าเฉลี่ยความเชื่อมั่น (Average Confidence) ผลการทดลองพบว่า การประมวลผลภาพด้วยการปรับสมดุลฮิสโตแกรมโดยจำกัดความเปรียบต่างให้ประสิทธิภาพโดยรวมดีที่สุด โดยได้จำนวนกรวยเฉลี่ยต่อเฟรมเท่ากับ 4.7 ความแม่นยำเท่ากับ 98.74%, ความครอบคลุมเท่ากับ 77.78% ค่าความสมดุลระหว่างความแม่นยำและความครอบคลุมเท่ากับ 87.01% ความถูกต้องเท่ากับ 77.01% และค่าเฉลี่ยความเชื่อมั่นเท่ากับ 62.22% ดังนั้น การประยุกต์ใช้เทคนิคการปรับสมดุลฮิสโตแกรมโดยจำกัดความเปรียบต่างจึงมีศักยภาพในการเพิ่มประสิทธิภาพและความน่าเชื่อถือของระบบตรวจจับกรวยจราจรด้วย YOLOv8 ภายใต้สภาพแสงน้อยได้อย่างมีนัยสำคัญ
Downloads
Article Details

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Journal of TCI is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International (CC BY-NC-ND 4.0) licence, unless otherwise stated. Please read our Policies page for more information...
เอกสารอ้างอิง
T. Wang et al., “Ultra-high-definition low-light image enhancement: A enchmark and transformer-based method,” Dec. 2022, arXiv:2212.11548. [Online]. Available: https://arxiv.org/abs/2212.11548
Z. Wang, Z. Cai, and Y. Wu, “An improved YOLOX approach for low-light and small object detection: PPE on tunnel construction sites,” J. Comput. Des. Eng., vol. 10, no. 3, pp. 1158-1175, Jun. 2023. doi: 10.1093/jcde/ qwad042.
R. C. Gonzalez and R. E. Woods, Digital Image Processing, 4th ed. New York, NY, USA: Pearson, 2018.R43
S. M. Pizer, E. P. Amburn, J. D. Austin, et al., “Adaptive histogram equalization and its variations,” Comput. Vis. Graph. Image Process., vol. 39, no. 3, pp. 355-368, Sep. 1987.
K. Zuiderveld, “Contrast limited adaptive histogram equalization,” in Graphics Gems IV, P. S. Heckbert, Ed. San Diego, CA, USA: Academic Press Professional, 1994, pp. 474-485.
J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You only look once: Unified, real-time object detection,” in Proc. IEEE Conf. Comput. Vis. Pattern Recognit. (CVPR), 2016, pp. 779-788.
G. Jocher, A. Chaurasia, A. Qiu, and Y. Stoken, “YOLO by Ultralytics,” GitHub, 2023. [Online]. Available: github.com. Accessed: Jan. 30, 2026.
Q. Su et al., “Real-time traffic cone detection for autonomous driving based on YOLOv4,” IET Intell. Transp. Syst., vol. 16, no. 10, pp. 1380-1390, Oct. 2022. doi: 10.1049/itr2.12212.
Z. Lin et al., “YOLO-LLTS: Real-time low-light traffic sign detection via prior-guided enhancement and multi-branch feature interaction,” Mar. 2025, arXiv:2503.13883. [Online]. Available: https://arxiv.org/abs/2503.13883.
T.-Y. Lin et al., “Microsoft COCO: Common objects in context,” in Proc. Eur. Conf. Comput. Vis. (ECCV), 2014, pp. 740-755.